Главная Сео Оптимизация Что из ручной работы в SEO вы любите делать?20 сентября 2017

Что из ручной работы в SEO вы любите делать?

Hard work in SEO
SEO это очень большое поле для деятельности, и каждый специалист рано или поздно приходить к делегированию и/или специализации.

Психологи рекомендуют где-то раз в 5 лет менять сферу деятельности. Если мы что-то делаем слишком долго и часто, нам это надоедает, и начинаем его делать «на автомате».

Когда 8 лет назад я жил в Донецке, то бывалые шахтеры мне рассказывали, что, как правило, травмируются на производстве шахтеры со стажем, которые со временем теряют бдительность.

За свои 8 лет увлечения SEO я делал разное, это: и покупка сайтов, и продвижение сайтов на партнерских условиях, создание сайтов для заработка на загрузках, кино-сайты, контентные проекты, тестовые проекты по бурж (шоп и блог), и т.д.

Так как я все делал сразу, то, к сожалению, не могу похвастаться выдающимися достижениями в каком-то определенном направлении. Когда уже есть семья и дети, то волей-неволей теряешь авантюризм к рисковым инвестициям времени и денег. Приходится тратить время на то, что приносит деньги здесь и сейчас.

Последнее мое увлечение в плане SEO это именно аудит сайтов. Мне просто интересно анализировать сайт и выписывать в док все ошибки сайта.

Когда я выписываю ошибки, я испытываю удовольствие, похоже на то, которые бывает у женщин, которые любят делать уборку.

И вот, анализ каждого нового сайта я начинаю с индексации сайта. Делаю это с помощью программ Netpeak Spider и Screaming Frog.

Последнее время использую только Netpeak Spider.

Эта программа довольно многофункциональна, есть много разных фишек, поэтому я не потяну полноценное описание всей программы.

Я опишу те штуки, которые мне нравятся больше всего, и которые я регулярно использую в своей работе.

Быстрые ссылки:

  1. Кастомный набор фиксированных колонок;
  2. Возможность получить данные для одного урла или списка урлов;
  3. Кликабельная ссылка на ошибки для каждого URL адреса;
  4. Сводная табличка по количеству ошибок на сайте;
  5. Анализ XML карты сайта.

1. Кастомный набор фиксированных колонок

Я не уверен, что правильно назвал эту штуку. В общем смысл в следующем: после того как Netpeak Spider просканирует ваш сайт, у вас будет табличка URL адресов и 36 колонок с собранными данными. Кстати, если вам не нужны какие-то данные, то вы просто можете спрятать эту колонку, одним кликом мышки.

Итак, Netpeak Spider может собирать следующие данные.

36 параметров сканирования

И для того чтобы успешно работать со всеми этими данными, нужно иметь возможность составлять свой набор колонок, которые будут зафиксированными. И которые можно будет сортировать по убыванию или возрастанию.
Вот, к примеру, я создаю следующие 3 колонки: URL адрес, код ответа (в эту колонку добавляю страницы с кодом ответа отличным от 200), число входящих ссылок. И потом сортирую результаты по числу входящих ссылок. Таким образом, я получаю список проблемных страниц, и вижу на какие из этих страниц ведет больше всего внутренних ссылок.

Сортировка результатов по числу входящих ссылок

Для того чтобы в табличке отображались только URL адреса с кодом ответа отличным от 200, настраивается вот такой простенький фильтр.

Фильтр для сортировки данных

С помощью кастомного набора колонок, можно добавить поле Title и Title Length, чтобы отсортировать их по длине, и выявить ненормально короткие/длинные тайтлы.

Вот какие например есть коротенькие Title у анализируемого сайта.

Когда я делал этот скриншот, то увидел, что случайно напоролся на чьи-то фарма доры, которые залили на сайт, через который продвигаются сантехнические услуги. Сами страницы уже удалили.

Сайт для аудита я выбрал полностью рандомно, просто загуглил запрос «plumber in maryland».

Взлом сайта для продвижения фармы

Я предполагаю, что эти страницы продвигались в поиске, потому что при просмотре проиндексированных страниц, они появляются в самом начале.

Проиндексированные фарма дорвеи

2. Возможность получить данные для одного урла или списка урлов

К примеру, у вас есть страницы с кодом ответа 301 или 404, и вы хотите узнать какие внутренние ссылки ведут на эти страницы. Для того чтобы получить эти данные, вы делаете следующе: выбираете URL адрес (или несколько адресов) и нажимаете вот эту быструю кнопку.

Быстрые кнопки Netpeak Spider

Вот что вы в результате получаете:

Отфильтрованные данные

Кроме того, существуют следующие быстрые кнопки:

8 быстрых кнопок

Переведу все 8 пунктов:

  1. Issues Info список ошибок и нотисов для выбранной страницы (дублицированные title, редиректы, пустые Н1 заголовки, и т.д.)
  2. Цепочки редиректов.
  3. Проблемы (цикличность) со ссылками указанными в теге rel=canonical.
  4. Внутренние ссылки с этого сайта, которые ведут на данную страницу.
  5. Исходящие ссылки с конкретной страницы.
  6. Исходящие внутренние ссылки на внутренние страницы сайта
  7. Исходящие внешние ссылки с этой страницы
  8. Картинки
  9. Н1 заголовки

3. Кликабельная ссылка на ошибки для каждого URL адреса

Как я ухе говорил выше, наш паучек проверяет каждую страницу по 36 параметрам. И по множеству из этих параметров он умеет определять ошибки. Итак, есть такая колонка, в которой отображается число ошибок и нотисов для конкретной страницы. Это цифра-ссылка, нажимая на которую вы получите весь список ошибок конкретной страницы. Ну и, конечно же, можно сортировать страницы по количеству ошибок.

Сортируем урлы по числу ошибок и кликаем на цифру.

Ссылка на ошибки выбранной страницы

В результате получаем вот такую табличку. В данном случае ошибки не такие и страшные. Но в целом это достаточно крутая штука.

Статистика SEO ошибок определенной страницы

4. Сводная табличка по количеству ошибок на сайте

После того как программа просканировала сайт, у вас появляется сводная табличка по количеству ошибок.

Разные типы ошибок на сайте

Удобные фишки данной таблички:

1. Ошибки сортируются по степени важности: Ошибки (Errors), предупреждения (Warning), Notice (замечание). Важность ошибки коррелирует с яркостью данного блока.

2. При клике на конкретный тип ошибок, вы открываете таблицу (где вы сможете делать все необходимые сортировки и экспорты) в которой будут отображаться только страницы с данной ошибкой.

Вот, например я кликнул на блок страниц с 301 редиректом. В таблице отображается список страниц с подобным кодом ответа.

Фильтрация результатов по определенному типу ошибок

3. Возле каждой ошибки стоит число, это число страниц, где встречается данная ошибка.

5. Анализ XML карты сайта

Сколько не делаю аудиты сайтов, всегда удивляюсь, когда анализирую XML карту сайта.
Крутые компании, вылизывают свои сайты, выпиливают из дизайна ссылки на ненужные, не уникальные, недоделанные страницы. Но забывают убрать ссылки на эти страницы из XML карты сайта.
Это могут быть ссылки на страницы какого-то странного типа (типа там галерея, резюме, портфолио и т.д.).
Часто нарушается простое правило, что в карте сайте должны быть ссылки на страницы с кодом ответа 200. Встречается много ссылок на 301 и 404 страницы.
Для того чтобы просканировать карту сайта, нужно выполнить следующие простые действия.

1. Crawling Settings

Crawling Settings

2. Выбираем метод сканирования XML Sitemap.

Выбираем метод сканирования XML Sitemap

3. Указываем адрес карты сайта и сканируем ее.

Запускаем сканирование сайта

Я повторяю, что анализировл рандомный сайт, и уже всплыли стандартные ошибки. В карту сайта добавлены страницы, которые запрещены к индексации через robots.txt или Meta Robots или X-Robots.Tag. Также присутствует ссылка на 301 страницу.

Ошибки в настройках индексации сайта

Нарушается важное правило, что между файлом sitemap.xml или другими инструкциями индексации не должно быть противоречий.

Еще есть разные продвинутые функции, как Custom Search. Где можно задать условие, чтобы сканировать только те страницы, у которых в определенном поле есть определенные данные.

Об этих продвинутых функциях хорошо рассказывается вот в этом посте NetpeakSoftware.

Пожелания:
Так как я активно юзаю данную программу, то у меня постоянно возникают идеи как ее улучить. Жаль только что не выполняю совет умных людей, заносить все хорошие мысли на цифровой или бумажный носитель. Из того что я помню, могу порекомендовать следующие штуки.

  1. Добавить анализ параметра hreflang;
  2. Добавить возможность сохранения фильтров, которые создаются из главного интерфейса;
  3. Добавить возможность удалять урлы, из списка страниц, которые паук нашел на сайте;
  4. При анализе карты сайта, чтобы отображалась дата последнего изменения страницы;
  5. Возможность проверять индексацию страницы в Google. Эта штука уже есть в Netpeak Checker. Но я не хочу покупать это комбайн, ради одной этой функции.

Итого:
В общем эту софтину должен юзать каждый, кто имеет отношение к тестированию и оптимизации сайтов.
Единственный серьезный конкурент данной программы это Screaming Frog. Это действительно крутая программа, которая хорошо развивается.

Только она стоит более дорого — 149 Фунтов Стерлингов, и ее оплачивать нужно сразу за год.
А Netpeak Spider можно оплачивать за месяц. Если оплачивать по месяцам, то стоимость 14$ в мес. Если оплачивать за год, то 117$, что заметно меньше чем у главного конкурента.

Понравилась статья?
Подписывайтесь на обновления, актуальные статьи на тему SEO, заработка в интернете, переводы зарубежных статей и многое другое:

Комментарии 8

  1. Серж

    Нормальный софт, сейчас сделал анализ одного своего сайта, сижу исправляю все. Можешь выложить или написать на почту какой софт используешь еще толковый?

  2. Кира из Netpeak Software

    Спасибо за интересный и полезный обзор. Помимо всего вышеперечисленного, программа Netpeak Spider доступна на русском языке, как и наш сайт 😉

    • Апокалиптик

      Да, это очень приятно. Я правда работаю под бурж, поэтому уже привык юзать Англоязычные Интерфейсы. Еще мне нравится ваш сапорт, стопорнулся как-то со сканирование одного сайта, то девушка все хорошо из сапорта обьяснила ).

  3. Сколько действий то))

  4. Alik

    И как я только обхожусь без всех этих программ, не понимаю =)

    • Апокалиптик

      Я тоже не знаю :). Может вы работаете только с покупным трафиком ). При таком подходе не так важна техническая оптимизация и всякие там мета теги, главное чтобы все было удобненько и красиво.

рекламный баннер