Сегодня я расскажу, как можно быстро и эффективно провести анализ сайта с помощью общедоступного бесплатного ресурса аудита сайтов сайтрепорт.рф. Эта статья является логическим продолжением статьи о внутренней оптимизации сайта. Фактически, используя знания из той статьи и инструменты из этой, можно самостоятельно произвести полноценную оптимизацию достаточно крупного сайта. Хотя нет, это я поспешил. Совсем завершенным данный цикл статей будет после публикации статьи о внутренней перелинковке.
Итак, что мы будем использовать для анализа: сайтрепорт.рф (отличный автоматический парсер сайта), мозг (для понимания несовершенства автоматики и анализа результатов). Как видите, все инструменты бесплатны и общедоступны (за исключением мозга, разве что). Анализ сайта заключает в себе 3 основных аспекта.
Технический анализ сайта
Под этим обычно понимают определение доступности страниц для ПС, анализ скорости загрузки сайта и т.п. Все это быстро и удобно сделает за нас скрипт, а мы лишь изучим и проанализируем результаты.
Анализ оптимизации сайта
В данном случае под оптимизацией понимается seo, т.е. мы будем изучать контент сайта и внутреннюю перелинковку. В данном случае сайтрепорт собирает и удобно структурирует информацию, а мы делаем выводы.
Анализ юзабилити сайта
Тут, к сожалению, скрипт нам не сможет помочь, поэтому сегодня мы обойдем эту интересную тему стороной.
Приступаем к анализу
Для начала откроем браузер… А вот и не буду сопли разжевывать, т.к. мозг указан в списке требований, считаем, что открывать сервисы и регистрироваться в них читатель умеет.
Итак, зайдя в свой аккаунт, на главной вводим адрес сайта и жмакаем «анализировать», не предлагая 5000 р. аналитику. Если очень хочется — предложите мне, я и 500 приму за такую работу).
Теперь, в зависимости от количества страниц на вашем сайте, можно пойти пописать, выпить чаю или пообедать. После окончания перерыва, во вкладке «мои проекты» обнаруживаем подопытного и начинаем препарировать. Суть основных операций приведу на примере данного блога.
Сразу наблюдаем общую информацию о сайте:
Из полезного тут мы видим количество страниц, которые обнаружил парсер, среднее время закачки страниц и статистику ответов сервера. Из этих параметров обратите внимание на время закачки страницы. Я считаю, что если оно меньше секунды — сайт грузится отлично и не требует оптимизации по этому параметру. Больше 3 — необходимо принимать меры, все остальное не критично, но лучше оптимизировать, если это не требует больших трудозатрат.
Отчет по загрузке
Перейдя на вкладку «отчет по загрузке», начинаем с рассмотрения графиков.
Они позволяют быстро выявить, что следует подвергнуть более тщательному рассмотрению. Так, в моем случае, мы видим, что ответы сервера все 200, поэтому можно не искать битые внутренние ссылки. Если же вы увидите наличие неверных ответов сервера, выбрав слева «все 4** страницы», получите список соответствующих страниц. Там же можно просмотреть ссылки, ведущие на эти страницы.
Графики «исходящие ссылки» и «внешние ссылки» позволяют быстро оценить имеются ли на сайте проблемы с избыточным количеством ссылок на страницу. Так же полезна информация о распределении страниц по глубине доступности от главной. У меня, например, есть 4 страницы 3-го уровня вложенности — это разделы уроков html и css. Из-за большой удаленности от главной они очень медленно индексируются, поэтому я планирую перенести их выше или создать html карту сайта.
Отсортировав страницы сайта по «LP — LinkPopularity», получаем качественную картину распределения веса по внутренним ссылкам.
У меня основной вес сосредоточен на главной странице и страницах разделов, а так же на страницах, которые попали в блок «Что нового». Так как я не планирую продвигать разделы, то в ближайшее время планирую переделать ссылочную структуру сайта для поднятия LP информативных постов вроде этого.
Анализ ссылок
Все в том же разделе «отчет по загрузке» в левом меню есть 3 полезные ссылки:
- Коллектор анкоров (полезно для анализа и настройки перелинковки сайта);
- Все циклические ссылки (я предпочитаю избавляться от них);
- Все внешние ссылки (показывает, на какие внешние ресурсы ссылается сайт, с каких страниц и закрыты ли эти ссылки в nofollow).
Отчет по анализу контента
Основной возможностью данного отчета является поиск дублей контента. Снова открываем графику:
Видим, что система обнаружила дубликаты контента, перейдя на вкладку «полные дубликаты» видим следующее:
Я недавно добавил пагинацию в блог и забыл избавиться от дубля.
Стоит отметить, что сайтрепорт позволяет обнаружить только те дубли страниц, на которые имеются внутренние ссылки, поэтому данный анализ хоть и полезен, но не выявляет все дубли контента. К тому же, он не обращает внимания на частичное дублирование, когда степень схожести страниц меньше 70%. Как еще можно искать дубли и как избавляться от них я уже писал в посте про дублирование контента на сайте.
Дополнительной плюшкой данного отчета является анализ валидности кода. Я предпочитаю принимать эти данные к сведению, но исправлением валидности заниматься, используя валидатор на w3c.
Отчет по анализу тегов
В первую очередь смотрим на графику:
Я обычно проверяю заполненность title 100%, дубликаты title 0%. После этого анализируем наличие заголовков на страницах. Плохим признаком может быть, как их отсутствие, так и переизбыток. Если они отсутствуют, я добавляю как минимум заголовки 1-го уровня на страницы. Если заголовков много — в первую очередь сокращаем количество h1 до 1-го на страницу и исключаем из заголовков то, что ими не является (пункты меню, подписи, даты и т.п.).
Для поиска возможно переоптимизированных страниц последовательно просматриваем список станиц, сортируя его по тегам b, h, strong, em.
Анализ отдельной страницы
Для анализа отдельной страницы достаточно щелкнуть на символ [S] в любом списке страниц проекта. Однако, на мой взгляд, для этих целей более удобен сервис по анализу контента на pr-cy.ru. Да и вообще оптимизация текста конкретной страницы все таки работа более ручная и творческая, если только вы не работаете над оптимизацией ГС.
Спасибо за предоставленный сервис. Хотя подобных сервисов сейчас много в интернете.
Плохо спамите, неубедительно. P.S. Аналогичных сервисов, на самом деле, не встречал.
Ну, сервисов подобных действительно не мало. Был бы признателен за обзор их. C этим сервисом нашел траблу. В инет-магазине у каждого товара есть «Добавить к сравнению», кроме того есть рекомендуемые товары.
Запустил сервис полчаса назад. Вот что получается.
http://img-fotki.yandex.ru/get/4403/71839286.c/0_7aa45_9fa576e2_orig.png
Страшно подумать, какая нагрузка на сервак сейчас идет. Не дождался, ушел с сервиса.
Еще некоторые хостеры хорошие предоставляют сервис AWStats,его нужно только в админке включить. Он предоставляет ооочень хорошую статистику, но в основном по запросам и ключевикам.
Установите пожалуйста плагин Disqus Comment System, удобно же будет на комментарии подписываться.
Честно говоря не понял в чем проблема на вашем скриншоте. Вас смущает, что сервис загружает сайт полностью? Ну так иного варианта нет для полноценного анализа.
А бесплатных аналогов сайтрепорта я действительно не знаю. Платные есть, но цены, на мой взгляд, неадекватные. Получается, что аудит роботом обойдется дороже, чем заказать у человека. Я, например, выполняю качественные отчеты по аудиту сайтов за 15$
Дискасс ставить не буду — не нравится мне он. Сам что-нибудь напишу на досуге. Этим мой блог и отличается, что полностью написан мной на обычном php. И поэтому в нем пока хватает недоработок и косяков)
Хорошая штука, аналоги есть но на порядок дороже. В основном большинство сервисов обрабатывают не более одной страницы. Здесь же видна картина всего сайта.
Забыл добавить про баги, в самом начале были проблемы, сейчас периодически пользуюсь всё вроде в порядке. Иногда анализ проходит долго вероятно из за учёта crawl-delay в robots.txt или нагрузки на сервис
Не знал, что есть бесплатный сервис с таким функционалом, пользовался только pr-cy. Спасибо за подсказку!
Думается, если долго стараться, даже самую сложную мысль можно так подробно раскрыть
Спасибо.
кое -что я умела анализировать.
Но есть отдельные места , которые услышала сегодня впервые…