Главная Обзоры 3 важных аспекта проведения технического аудита4 мая 2019

3 важных аспекта проведения технического аудита

SEO аудит сайта
Так устроен Интернет, что каждому сайту нужно подстраиваться под требования поисковых систем. Потому что Google и Яндекс все еще являются главными источниками трафика для сайтов. Следовательно такая услуга как технический seo аудит сайта будет актуальна и востребована всегда. Именно проведение аудита позволяет понять, насколько сайт соответствует требованиям поисковых систем.

Конечно, можно жить и без поиска. К примеру есть категория сайтов заточенных под трафик с социальных сетей. Как правило это сайты с кричащим, вирусным контентом. Обычно такие сайты переполнены рекламой, потому что они созданы для монетизации социального трафика. Но такие сайты не являются мейнстримом, а небольшим сегментом манимейкерских проектов.

Поэтому, современные реалии таковы, что нужно подстраиваться под требования поисковых систем.

И вот главные заповеди поисковых систем:

  1. Контент это король. Контент должен быть хорошим.
  2. Сайт должен быть удобным (быстрым, UI и UX).
  3. Не практиковать черные SEO практики, внутри и вне сайта.

Google и другие лидирующие поисковые системы можно вполне обосновано упрекнуть, что их сервисы настроены таким образом, чтобы наибольшую выгоду от качественного поиска получали сами поисковые системы.

И есть много примеров когда в денежных тематиках предпочтение отдается сайтам и сервисам самой поисковой системы. Особенно это верно в отношении китайской поисковой системы Baidu. У которой TOP-10 напрочь забит рекламными объявлениями и ссылками на сервисы Baidu.

Тем не менее, если все вебмастера будут соблюдать 3 ключевых правила описанных выше, то все от этого только выиграют.

Более того, практика показывает, что если работать на перспективу, то наиболее рентабельными выглядят инвестиции в белые методы наполнения и раскрутки сайтов.

Если у вас качественный сайт, с качественным контентом, то вас найдут даже по сарафанному радио. Конечно, сарафанное радио имеет меньший потенциал. Тем не менее, не нужно делать ставку исключительно на поисковый трафик.

Стремление заработать на поисковом трафике породило огромное количество сайтов ничтожного качества. Более того, более половины случаев взлома сайтов обусловлены именно SEO мотивами.

Чаще всего сайты ломают для того чтобы добавить ссылку на свой мани сайт. Либо для того чтобы залить на чужой, трастовый сайт свой контент. Чтобы, за счет трастовости чужого сайта, получить хорошие позиции в результатах поиска и, соответственно трафик с Google.

Итак, раз мы уже поняли что сайт должен соответствовать требованиям поисковых систем, давайте перейдем к техническому анализу. Чтобы научиться выявлять ошибки, которые будут мешать ему занимать хорошие позиции в результатах поиска.

Мы рассмотрим 3 ключевые аспекта технического аудита.

Анализ мета тегов: Title и Description.

Мета тег Title самый главный SEO тег. Именно этот тег отображается в результатах поиска.

Пример Meta Title

Какой бы контент не содержался на странице, если в заголовке будет не релевантная информация — не ждите трафика с поиска. Ни Google не люди не поверят тому, что на вашем сайте вы продаете носки, если в Title будет “Детский конструктор”.

Есть разные программы и сервисы, которые позволят вам просканировать ваш сайт, и собрать информацию о мета тегах.

Из программ можно отметить: Netpeak Spider и Screaming Frog. Из сервисов можно отметить — https://sitechecker.pro.

После сканирования сайта вы получите информацию об ошибках в Title данного сайта.

Есть ряд распространенных ошибок в теге Title.

  • Не заполненных тег;
  • Title который дублируется, повторяется на других страницах сайта;
  • Не информативные и не релевантные Meta Title;
  • Слишком длинные Meta Title;
  • Спамные Meta Title, в которых ключевой запрос используется избыточное число раз.

Ниже вы увидете примеры, как выглядят данные ошибки.

Пример URL страниц с одинаковым, дублирующимся тегом Title.

Дуплицированный Meta Title

А вот пример с избыточно оптимизированным (спамным) тайтлом. С таким тайтлом можно запросто угодить под фильтр поисковых систем.

Спам в Meta Title

Если у вас на сайте будет много подобных ошибок, то ваш сайт запросто может попасть под действие фильтров поисковых систем.

2. Коды ответа страниц сайта

Вторая важная категория ошибок, которые могут быть на сайте, это неправильные коды ответа.

Если на сайте происходит сбой, то хорошие страницы (созданные для привлечения поискового трафика, страницы с лид формами), начинают отдавать неправильный код ответа. Неправильным ответом для хороших страниц является любой код ответа отличный от 200.

Вот например результат проверки сайта. Как минимум одна из важных страниц — http://pereezd-rzn.ru/zayavka.html недоступна.

Картинка.

Нужно постоянно проверять свой сайт, чтобы избежать подобных ошибок.

Одно неверное движение при обновлении дизайна сайта может привести к тому, что половина страниц станут недоступными.

Чаще всего эта ошибка проявляется в том, что несколько версий сайта: с www и без www, http или https и т.д. Отдают код ответа 200. Хотя только один вариант адреса должен иметь код ответа 200. С других протоколов нужно делать 301 редирект на основной протокол.

3. Неправильные настройки индексации
На самом деле это целая категория ошибок. Очень много сайтов не достигли топа из-за ошибок в индексации. Нужные страницы были закрыты от индексации, а ненужные, дуплицированные или технические страницы — были открыты к индексации. И это негативно повлияло на репутацию сайта.

Когда вы будете делать технический аудит сайта, то для того чтобы проверить правильно ли настроена его индексация, вам нужно проверить следующие аспекты:

1. Проверить настройки файла robots.txt
2. Настройки тега Meta Robots
3. Настройки файла sitemap.xml
4. Проанализировать страницы, которые находятся в индексе поисковых систем.

Вот к примеру я проанализировал xml карту сайта — http://www.pereezd-rzn.ru/sitemap.xml .

В скриншоте содержится информация, которую я получил после сканирования сайта.

Ошибки в XML файле

На этом скриншоте все 3 вида ошибок, о которых мы говорили в статье: дуплицированный Title, неправильные кода ответа (дубли с www и без www) и неправильная xml карта. Как я выше писал, я сканировал xml карту, и эта карта должна содержать ссылки только на уникальные, не дуплицированные страницы. Эту же xml карту нужно почистить от дублей.

Если у вас много сайтов, или же сайт слишком большой, то компания Promodo поможет вам провести аудит, и привести сайт в соответствие с требованиями поисковых систем.

Понравилась статья?
Подписывайтесь на обновления, актуальные статьи на тему SEO, заработка в интернете, переводы зарубежных статей и многое другое:

Комментарии 0

SEO аудит сайта по доступным ценам
Самая быстрая Wordpress тема