Бесплатный анализ сайтов

Сегодня я расскажу, как можно быстро и эффективно провести анализ сайта с помощью общедоступного бесплатного ресурса аудита сайтов сайтрепорт.рф. Эта статья является логическим продолжением статьи о внутренней оптимизации сайта. Фактически, используя знания из той статьи и инструменты из этой, можно самостоятельно произвести полноценную оптимизацию достаточно крупного сайта. Хотя нет, это я поспешил. Совсем завершенным данный цикл статей будет после публикации статьи о внутренней перелинковке.

Итак, что мы будем использовать для анализа: сайтрепорт.рф (отличный автоматический парсер сайта), мозг (для понимания несовершенства автоматики и анализа результатов). Как видите, все инструменты бесплатны и общедоступны (за исключением мозга, разве что). Анализ сайта заключает в себе 3 основных аспекта.

Технический анализ сайта

Под этим обычно понимают определение доступности страниц для ПС, анализ скорости загрузки сайта и т.п. Все это быстро и удобно сделает за нас скрипт, а мы лишь изучим и проанализируем результаты.

Анализ оптимизации сайта

В данном случае под оптимизацией понимается seo, т.е. мы будем изучать контент сайта и внутреннюю перелинковку. В данном случае сайтрепорт собирает и удобно структурирует информацию, а мы делаем выводы.

Анализ юзабилити сайта

Тут, к сожалению, скрипт нам не сможет помочь, поэтому сегодня мы обойдем эту интересную тему стороной.

Приступаем к анализу

Для начала откроем браузер… А вот и не буду сопли разжевывать, т.к. мозг указан в списке требований, считаем, что открывать сервисы и регистрироваться в них читатель умеет.

Итак, зайдя в свой аккаунт, на главной вводим адрес сайта и жмакаем «анализировать», не предлагая 5000 р. аналитику. Если очень хочется — предложите мне, я и 500 приму за такую работу).

Теперь, в зависимости от количества страниц на вашем сайте, можно пойти пописать, выпить чаю или пообедать. После окончания перерыва, во вкладке «мои проекты» обнаруживаем подопытного и начинаем препарировать. Суть основных операций приведу на примере данного блога.

Сразу наблюдаем общую информацию о сайте:

Бесплатный анализ сайтов

Из полезного тут мы видим количество страниц, которые обнаружил парсер, среднее время закачки страниц и статистику ответов сервера. Из этих параметров обратите внимание на время закачки страницы. Я считаю, что если оно меньше секунды — сайт грузится отлично и не требует оптимизации по этому параметру. Больше 3 — необходимо принимать меры, все остальное не критично, но лучше оптимизировать, если это не требует больших трудозатрат.

Отчет по загрузке

Перейдя на вкладку «отчет по загрузке», начинаем с рассмотрения графиков.

Отчет

Они позволяют быстро выявить, что следует подвергнуть более тщательному рассмотрению. Так, в моем случае, мы видим, что ответы сервера все 200, поэтому можно не искать битые внутренние ссылки. Если же вы увидите наличие неверных ответов сервера, выбрав слева «все 4** страницы», получите список соответствующих страниц. Там же можно просмотреть ссылки, ведущие на эти страницы.

Графики «исходящие ссылки» и «внешние ссылки» позволяют быстро оценить имеются ли на сайте проблемы с избыточным количеством ссылок на страницу. Так же полезна информация о распределении страниц по глубине доступности от главной. У меня, например, есть 4 страницы 3-го уровня вложенности — это разделы уроков html и css. Из-за большой удаленности от главной они очень медленно индексируются, поэтому я планирую перенести их выше или создать html карту сайта.

Отсортировав страницы сайта по «LP — LinkPopularity», получаем качественную картину распределения веса по внутренним ссылкам.

ссылки

У меня основной вес сосредоточен на главной странице и страницах разделов, а так же на страницах, которые попали в блок «Что нового». Так как я не планирую продвигать разделы, то в ближайшее время планирую переделать ссылочную структуру сайта для поднятия LP информативных постов вроде этого.

Анализ ссылок

Все в том же разделе «отчет по загрузке» в левом меню есть 3 полезные ссылки:

  • Коллектор анкоров (полезно для анализа и настройки перелинковки сайта);
  • Все циклические ссылки (я предпочитаю избавляться от них);
  • Все внешние ссылки (показывает, на какие внешние ресурсы ссылается сайт, с каких страниц и закрыты ли эти ссылки в nofollow).

Отчет по анализу контента

Основной возможностью данного отчета является поиск дублей контента. Снова открываем графику:

Дубликаты контента

Видим, что система обнаружила дубликаты контента, перейдя на вкладку «полные дубликаты» видим следующее:

Доп информация

Я недавно добавил пагинацию в блог и забыл избавиться от дубля.

Стоит отметить, что сайтрепорт позволяет обнаружить только те дубли страниц, на которые имеются внутренние ссылки, поэтому данный анализ хоть и полезен, но не выявляет все дубли контента. К тому же, он не обращает внимания на частичное дублирование, когда степень схожести страниц меньше 70%. Как еще можно искать дубли и как избавляться от них я уже писал в посте про дублирование контента на сайте.

Дополнительной плюшкой данного отчета является анализ валидности кода. Я предпочитаю принимать эти данные к сведению, но исправлением валидности заниматься, используя валидатор на w3c.

Отчет по анализу тегов

В первую очередь смотрим на графику:

Анализ тегов

Я обычно проверяю заполненность title 100%, дубликаты title 0%. После этого анализируем наличие заголовков на страницах. Плохим признаком может быть, как их отсутствие, так и переизбыток. Если они отсутствуют, я добавляю как минимум заголовки 1-го уровня на страницы. Если заголовков много — в первую очередь сокращаем количество h1 до 1-го на страницу и исключаем из заголовков то, что ими не является (пункты меню, подписи, даты и т.п.).

Для поиска возможно переоптимизированных страниц последовательно просматриваем список станиц, сортируя его по тегам b, h, strong, em.

Анализ отдельной страницы

Для анализа отдельной страницы достаточно щелкнуть на символ [S] в любом списке страниц проекта. Однако, на мой взгляд, для этих целей более удобен сервис по анализу контента на pr-cy.ru. Да и вообще оптимизация текста конкретной страницы все таки работа более ручная и творческая, если только вы не работаете над оптимизацией ГС.

oroom

oroom

меня зовут Дмитрий и я автор этого блога, в котором рассказываю о seo, создании сайтов и своем опыте на этом поприще.

10 комментариев
Показать все Самые популярные Высокий рейтинг Низкий рейтинг Добавьте свой отзыв
  1. Спасибо за предоставленный сервис. Хотя подобных сервисов сейчас много в интернете.

  2. Плохо спамите, неубедительно. P.S. Аналогичных сервисов, на самом деле, не встречал.

  3. Ну, сервисов подобных действительно не мало. Был бы признателен за обзор их. C этим сервисом нашел траблу. В инет-магазине у каждого товара есть «Добавить к сравнению», кроме того есть рекомендуемые товары.

    Запустил сервис полчаса назад. Вот что получается.

    http://img-fotki.yandex.ru/get/4403/71839286.c/0_7aa45_9fa576e2_orig.png

    Страшно подумать, какая нагрузка на сервак сейчас идет. Не дождался, ушел с сервиса.

  4. Еще некоторые хостеры хорошие предоставляют сервис AWStats,его нужно только в админке включить. Он предоставляет ооочень хорошую статистику, но в основном по запросам и ключевикам.

    Установите пожалуйста плагин Disqus Comment System, удобно же будет на комментарии подписываться.

  5. Честно говоря не понял в чем проблема на вашем скриншоте. Вас смущает, что сервис загружает сайт полностью? Ну так иного варианта нет для полноценного анализа.

    А бесплатных аналогов сайтрепорта я действительно не знаю. Платные есть, но цены, на мой взгляд, неадекватные. Получается, что аудит роботом обойдется дороже, чем заказать у человека. Я, например, выполняю качественные отчеты по аудиту сайтов за 15$

    Дискасс ставить не буду — не нравится мне он. Сам что-нибудь напишу на досуге. Этим мой блог и отличается, что полностью написан мной на обычном php. И поэтому в нем пока хватает недоработок и косяков)

  6. Хорошая штука, аналоги есть но на порядок дороже. В основном большинство сервисов обрабатывают не более одной страницы. Здесь же видна картина всего сайта.

  7. Забыл добавить про баги, в самом начале были проблемы, сейчас периодически пользуюсь всё вроде в порядке. Иногда анализ проходит долго вероятно из за учёта crawl-delay в robots.txt или нагрузки на сервис

  8. Не знал, что есть бесплатный сервис с таким функционалом, пользовался только pr-cy. Спасибо за подсказку!

  9. Думается, если долго стараться, даже самую сложную мысль можно так подробно раскрыть

  10. Спасибо.

    кое -что я умела анализировать.

    Но есть отдельные места , которые услышала сегодня впервые…

Оставить ответ

SEO эксперты
Logo
Включить регистрацию в настройках - общий