Главная Сео Оптимизация Как сделать SEO аудит сайта за 30 минут26 ноября 2018

Как сделать SEO аудит сайта за 30 минут

Инструменты специалиста
Всем привет. Мои подростковые годы пришлись на конец 90х годов. Каждое каждое лето, во время летних каникул в техникуме, я со строительной бригадой моего отца ездил на стройку.

Должен признать, это было нелегкое занятие. Особенно когда нужно было копать канавы для фундамента и потом заливать их бетоном. Более приятно было заниматься отделкой, обшивать вагонкой деревянные дома, работать помощником кровельщика, лазить по крыше и т.д.

Интересное было время. Как-то мы строили крыльцо одному заказчику. А отцу заказчика — оно дико не понравилось. Он напился, порубил крыльцо, и уже рубил двери в нашу комнату на втором этаже. Нам пришлось убегать через окно, по лестнице, которую как нельзя кстати принес его внук.

Так вот. Каждый строитель ценит хороший инструмент. Когда инструмент профессиональный, качественный, то им приятно работать. Мало кто из профессионалов любит делиться своим инструмент. Потому что эффективность работы напрямую зависит от качества инструментов, которые ты используешь.

Один из моих любимых инструментов в SEO это Netpeak Spider. Я уже наверное не одного клиента нашел, благодаря аудитам, которые я могу делать с помощью этого софта.

В статье я приведу пример, как очень быстро проверить состояние SEO характеристик сайта этой программой.

Если у вас небольшой или средний сайт, и вы его не планируете постоянно девелопить, тогда вам хватит даже триала (14 дней) чтобы увидеть основные косяки сайта. Увидеть баги и устранить, так что сайт будет вполне валидно выглядеть в глазах поисковых систем.

Как за 30 минут сделать аудит сайта

Для начала нужно просканировать сайт программой Netpeak Spider. А потом проанализировать страницы из двух основных категорий, на которые Spider разобьет урлы вашего сайта: индексируемые и неиндексируемые.

Индексируемые страницы, это те, которые могут быть проиндексированы (спасибо Кэп). Они не закрыты robots.txt, meta robots или xrobots. У них не проблем с canonical и код ответа 200, а не какой-то там редирект или еще что-то

Неиндексируемые, это страницы у которых имеется какая-то проблема с индексацией. Они закрыты от индексации в каких-то роботсах, или есть проблемы с редиректами или canonical.

Итак выбираем тип страниц Индексируемые, и смотрим что отдает на индексацию данный сайт.

Все это лучше смотреть вживую, поэтому ищем пациента для примера.

Пример аудита строительного сайта

Раз уж мы вспомнили про стройку, то я решил набрать запрос “аренда погрузчика москва”. И, даю вам честное слово, я выбрал сайт который находился в Топ-1 по этому запросу. Я не подбирал сайт, на котором было бы побольше ошибок.

На анализ попался сайт rentlift.ru.

Как мне кажется, с неймингом и брендингом у них не очень.

Брендинг, дизайн строительного сайта

Но, скорее всего, их потенциальные клиенты: прорабы и бригадиры — не чувствительны к подобным тонкостям и изыскам Интернет-маркетинга.

Итак, я просканировал сайт с помощью Netpeak Spider и перешел в “Сводка → Индексируемые”, в правой боковой колонке программы.

Индексируемые страницы на сайте

Теперь в основном окне у меня находится 3 157 индексируемых страниц данного сайта. И для каждой из этих страниц отображается много данных, которые собрала данная программа.

Вот список параметров, по которым была проверена каждая страница. Те параметры которые вам не нужны, убираются в один клик из данного списка.

Список анализируемых параметров, Netpeak Spider

И что удобно, есть функция сортировки данных от возрастания к уменьшению, и наоборот. Эти сортировки и помогут нам найти самое слабое звено.

Одна из моих любимых сортировок, это сортировать страницы по размеру страницы в байтах. Обычно самые легкие страницы это технические пустышки, а самые тяжелые — страницы, это где контент-менеджеры накосячили с картинками.

Когда я отсортировал список по самым тяжелым страницам, в соседней колонке (Хэш текста) увидел дубликаты.

Дубликаты контента

Мы совсем не долго копали, и уже увидели страницы, с полностью идентичным контентом. И эти страницы открыты к индексации.

Вот эти страницы:
http://www.rentlift.ru/catalog/?SHOWALL_2=1
http://www.rentlift.ru/catalog/?set_filter=y&SHOWALL_2=1
http://www.rentlift.ru/catalog/?SHOWALL_2=1&set_filter=y

Эти же страницы можно найти в отчете об ошибках в секции — Дубликаты текста.

Отчет, страницы дубликаты

А теперь возвращаемся к нашим сортировкам. Отсортируем “Индексируемые страницы” по размеру. Таким образом я нашел вот такие страницы.

Страницы без контента

Это банальные пустышки, которые нужно наполнять контентом либо удалять. Целый ряд подобных страниц находится в списке индексируемых.

Сортируем страницы по H1 заголовку. И видим что здесь тоже не все благополучно.

Дубликаты заголовка H1

Сортируем страницы по количеству внутренних ссылок, и видим что бесполезный раздел Новости, перекачан внутренними ссылками.

Слишком много внутренних ссылок

Сортируем страницы по уровню вложенности, и видим что есть страницы с уровнем вложенности 35. У таких страниц мало шансов быть проиндексированными поисковыми системами. Нужно создавать какую-то карту сайта, для подобных страниц.

Глубина вложенности страницы

Ну и конечно, самый информативный блок это “Ошибки” в котором ошибки отсортированы по степени их важности. Клик по каждому из этих пунктов, переведет все страницы с этой ошибкой в рабочее окно. Где вы сможете их детальнее анализировать и сортировать.

Сводка по ошибкам на сайте

Нахождение 404 страниц на сайте

Сортировки очень удобно использовать для того чтобы понять масштаб ошибок.

Внутренние ссылки на 404 страницы

В отчете Netpeak Spider присутствует пункт — 404 страницы. Для того чтобы понять сколько ссылок ведет на эти страницы, делаем сортировку по количеству входящих ссылок.

Всего на сайте около 3,5 тыс. Страниц. И на 5 страниц с кодом ответа 404 — указывает почти 7 тыс. Внутренних ссылок. Скорее всего на каждую страницу ведет по 2 сквозные ссылки. Это много, нужно исправлять эту ошибку.

Валидация XML карты сайта

А чтобы еще быстрее понять уровень SEO сайта, нужно добавить на валидацию xml карту сайта. Проще всего это сделать с помощью соответствующего встроенного инструмента (Валидатор XML Sitemap).

Валидация XML карты

Если в этой карте сайте будут Неиндексируемые страницы, то это печально печально.

Это печально

Ведь xml карта создана именно для того, чтобы передать Google список страниц, которые должны быть проиндексированы. Отдавать на индексацию страницы, которые недоступны или запрещены к индексации — глупая и грубая ошибка.

Что и требовалось доказать. В xml карте из 936 страниц, нашлось 100 страниц с кодом ответа 404. Таких страниц не должно быть на сайте, а в карте сайта — тем более.

404 страницы в XML карте сайта

Еще часть страниц из карты сайта просто закрыты к индексации. Это тоже печально.

Страницы закрытые от индексации

Что вы делаете, люди. Вы же разбиваете сердце поисковому боту.

Астанавитесь

Тот факт, что Google проиндексировал 3 тыс. страниц

3 тыс. проиндексированных страниц

а карта сайта содержит только 830 урлов с нормальным кодом ответа, говорит что ее делали довольно давно, и не обновляют.

Индексируемые страницы в XML карте

Если бы я не писал данную статью, то беглый аудит этого сайта занял бы все лишь пол часа.

Кстати, для читателей моего блога действует 10% скидка на покупку лицензий Netpeak Spider. Чтобы её использовать, достаточно перейти по этой ссылке, либо ввести промокод anokalintikNS на этапе оплаты.

Понравилась статья?
Подписывайтесь на обновления, актуальные статьи на тему SEO, заработка в интернете, переводы зарубежных статей и многое другое:

Комментарии 4

  1. Для месячного сайта нужен такой аудит или еще рановато?

Курсы, Python для SEO
Самостоятельный аудит сайта за 30