Главная Перевод Опасность пересекающихся алгоритмов, раскрытие скрытого апдейта Панды — Перевод18 ноября 2014

Опасность пересекающихся алгоритмов, раскрытие скрытого апдейта Панды — Перевод

Мет Катс
Выход апдейта Пингвин 3.0 это одно из самых ожидаемых апдейтов за последние годы. И вот он вышел – 17 октябрят 2014 года. Пингвин не обновлялся целый год, и вебмастера находились в подвешенном состоянии, ожидая, когда же он выйдет, и уповая что с новым адейтом их сайты освободятся от действия этого фильтра. Они убрали ненужные ссылки, запретили через опцию disavow все, что нельзя было убрать вручную, и просто ждали -когда же случится апдейт и их сайты освободятся. Google возился с этим фильтром 12 месяцев и ничего толком не сделал, апдейта не произошло.

Когда Пьер Фар сообщил о выходе апдейта 21 октября, мне сразу бросилось в глаза несколько моментов. Был выпущен далеко не новый алгоритм, как говорил Гарри Илл на конференции SMX East. Это было небольшое обновление, а потому непонятно с чем именно борется Google: с Пингвином, с негативным SEO или с кашлем.

Во вторых, выход апдейта не произвел ожидаемого эффекта. Было похоже что у этого обновления был фокус на международные сайты, но и в самое Америке не было вразумительного результата. В глобальном плане, многие сайты подпали под действие этого фильтра, но много сайты с которых должны были снять санкции – не получили освобождения. И до сих пор есть много сайтов, которые должны быть освобождены от Пингвина, но они все еще под санкциями.

В третьих, применение этого обновления будет медленным и продолжительны, за несколько недель он должно в полной мере вступить в силу. Обычно изменения быстро вступали в силу, но с микроскопическим апдейтмо Пингвин 3.0 все по-другому. Этот третий пункт (медленное вступление в силу этого обновления) более важен, нежели многие люди думают. Многих вебмастеров результат обновления уже привел в замешательство (в день выхода обновления). Но это замешательство будет расти в геометрической прогрессии по мере внедрения этого обновления в полную силу.

Чем больше времени проходит между запуском обновления и его полным применением и воздействием на сайты, тем больше возникает вопросов. Это Пингвин 3.0 или это что-то другое? Так как я вплотную работают с алгоритмами и фильтрами Google, то я очень часто слышал подобные вопросы за последние несколько лет. И продолжительный апдейт это яркий пример того, почему у вебмастеров возникает смущение по этому вопросу. На этом мы и сфокусируемся в этой статье.

Пингвин, Пиратский апдейт и аномалии октября 2014 года

Во время обновления Пингвина одновременно был обновлен антипиратский алгоритм (который не обновлялся порядка двух лет). И, конечно же, некоторые сайты могли попасть под действие обеих фильтров. Этот момент вносит дополнительный слой сложности в эту ситуацию, но все равно это не собьет нас с толку. Я уже писал о том, что 24 октября наблюдались очень странные аномалии и изменения выдачи, особенно в конце дня.

И если это было обновление еще одного алгоритма, то получается такая ситуация, что было проведено одновременное обновление трех алгоритмов. Больше об этом поговорим далее, но это подчеркивает — какая может произойти конфузия, если запустить медленный апдейт (Пингвина 3.0) одновременно с миксом из подтвержденных и неподтвержденных апдейтов.

Пингвин 3.0 – тряска и анализ

Так как мне постоянно приходится иметь дело с Пингвином, то у меня на исследовании есть много доменов, которые раньше были поражены Пингвином и за которыми я внимательно следил с выходом Пингвина 3.0. Я уже даже опубликовал пост на основании наблюдений в течении 10 дней после выхода апдейта, и в своем анализе а наткнулся на интересные примеры.

И так как у нас долгоиграющий апдейт, то были замечены тряски после официального запуска апдейта 17 числа. Вот на скриншоте пример того, как Пингвин работал 17, 22 и 25 числа.

Апдейт Пингвина

Но, как я говорил выше, что-то странное произошло и 24 октября, что-то такое, что в моем офисе завыли сигнальные сирены. Я наблюдал серьезные изменения на сайтах, которые были поражены Пандой, а не Пингвином. И когда я заметил серьезные изменения, я начал анализировать изменения трафика у сайтов 24 числа. И снова-таки, изменения были замечены на сайтах пораженных Пандой, у которых был чистый ссылочный профиль. Ряд примеров подтверждают ту тенденцию, что был целый ряд сайтов, у которых произошли изменения в трафике 24 октября.

Хороший день для жертвы панды.

Апдейт Панды

Плохой день для жертвы Панды.

Санкции от Панды

И жестокое разочарования для сайта, который освободился от панды 5.09 и снова был зафильтрован 10.24.

Панда, восстановление сайта

Этих данных достаточно, чтобы уверенно говорить про это. И когда в Интернете происходит что-то необычное, это очередной раз показывает силу влияния Интернета.

И чем больше вебмастеров читают мой твит и пост, тем больше я начинаю получать сообщений что у них наблюдается аналогичная картина, что вебмастера сталкиваются с работой Панды а не Пингвина. И они не только говорят об этом, они показываю мне данные, которые это подтверждают.
Я получил много твитов и электронных писем со скриншотами из Google Analytics и Google Webmaster Tools. И это было удивительно видеть, но мы получили адейт Панды, по средине вялотекущего апдейта Пингвин 3.0. Да, вы не ошиблись, Панда в середине Пингвина, когда все Интернет-сообщество было сосредоточено на наблюдении изменений после выхода Пингвина 3.0.

Это был хитрый ход Google, очень хитрый.

Хитрый Google

Фильтр Google Панда

Апдейт Панды

И что же из всего этого получится? Получится та самая конфузия, о которой я писал выше. Google заготовли тройной апдейт из: Пингвина, Пиратского алгоритма и Панды.

Конфузия вебмастеров и напоминание про аналогичный коктейль в 2012 году.

Итак, мы получили значительный апдейт алгоритма, во время внедрения двух других алгоритмов (Пингвин и Панда) и смущение вебмастеров стало велико. Я никого не виню в том, что вы попали в с мущение от всего это. Я с начала сам глубоко занырнул в эту тему и смутился от всего того, что я увидел.

Были ли изменения 24 октября реальным апдейтом Панды или это была обычная тряска выдачи. А может это было обновление пиратского алгоритма? А если это был апдейт Панды, то было бы хорошо если бы Google сообщало о подобных апдейтах! Или же Google хочет исключить возможность анализа его апдетов Пингвина и Панды. Или может у кого-то есть звукоизоляционная комната, в которой можно поплакать?

Глен, правда ли что Google выкатил три алгоритма одновременно?

Да. Кто-то помнит бутерброд из алгоритмов в апреле 2012 года? Это когда Google выпустил Панду 19 апреля, Пингвина 1.0 — 24 апреля, и потом снова Панду 27 апреля.

Тогда было выпущено 3 алгоритма в течении 10 дней. И давайте не забывать, что апдейт Пингвина 24 апреля 2012 – был первый в своем роде. Поэтому да, Google может и будет выпускать по несколько алгоритмов одновременно.

Апдейты в 2012 году

Куда мы движемся? Все это интересно, но пока не ясно к чему ты клонишь

Обновление панды в режиме реального времени

Когда выкатили Панду 4.1 – 23 сентября, мне резко не понравилось это название, и особенно версия апдейта. Денни Саливан назвал версию 4.1, но, по моему мнению, это далеко не так. Нужно было указывать версию 4.75 как минимум, потому что с дня выхода Панды 4.0 20 мая – прошло много времени и изменений в этом алгоритме.

Я видел много примеров того что я называю «тряской», и порой это случается едва не каждую неделю. У меня есть доступ к большому числу сайтов (разной тематики, из разных регионов) поэтому я могу утверждать, что происходит много промежуточных апдейтов.

Поэтому, основываясь на увиденном, я обратился к Джону Мюллеру из Google, чтобы он объяснил мне: что это за «тряска». Джон дал мне крутой ответ, который полностью соответствует тому, что я видел. Он сказал, что в Google нет установки на какую-то частоту выхода апдейтов алгоритмов, таких как Панда. Google может выкатить какое-то обновление, проанализировать выдачу, донастроить его до необходимого уровня и потом снова выкатить в выдачу. И это именно то, что я вижу, наблюдая за сайтами (после выхода Панда 4.0, едва не каждую неделю я наблюдаются определенные подкрутки этого алгоритма).

Джон Мюллер

Когда Панда и Пингвин встречаются в режиме реального времени …

Когда они встречаются то они могут выпить чашечку кофе и поржать с нас :). Так как Панда сейчас работает практически что в режиме реального времени, то очевидно что будут пересечения с другими крупными адейтами. Что мы как раз и наблюдали 24 октября, когда одновременно выкатили: Панду, Пингвина и пиратский алгоритм. Поэтому в будущем это может привести (и скорее всего и приведет) к большей сложности по определению апдейтов, что мы и имеем на данный момент. Приближается время, когда крупные апдейты, разработанные в тайных лабораториях, будут выпускаться с цепи – почти что в режиме реального времени.

Поэтому, если органический трафик с Google вам нужен – вам нужно быть внимательным. Давайте совершим прыжок в будущее Google и SEO. Но после того как вы услышите что я вам скажу – вам захочется вернуться в прошлое.

Назад в прошлое

Гениальное объектно-ориентированное движение по борьбе по спамом.

Недавно я выступал как докладчик на SEO конференции и рассказывал про: Панду, Пингвина и другие пакости. Про другие пакости, я расскажу скоро. В моей презентации, у меня есть такой слайд.

Франкенштейн

За последние несколько лет, Google начал использовать гениальную, обьектно-ориентированную стратегию по борьбе с веб спамом и низкокачественным контентом. Инженеры «антиспамщики» могут разрабатывать внешние алгоритмы в своих тайных лабораториях, и потом внедрять их в выдачу в любое время. Это гениально, потому что это ориентировано на одну конкретную проблему, и это крайне удобно масштабировать. И, конечно же, это должно до чертиков напугать тех, кто нарушает правила.

Например, мы имеем: Панду, Пенгвина, Пиратский алгоритм и Первая полоса (Above the Fold)*.

Первая полоса, это алгоритм который фильтрует сайты за то, что пользователям трудно найти материал, ради которого они перешли на сайте. Трудно из-за обилия рекламы, из-за того что нужно совершить какое-то действие чтобы получить доступ к контент и т.д. Палится фильтр, как вы догадались по пользовательским факторам. Большой показатель отказов – значит пользователи огорчены, что не могут получить доступ к контенту. А значит Google еще больше огорчен.

Итак, каждый из алгоритмов разработан для решения конкретной проблемы, и может быть спущен с цепи, когда Google только захочет. Несомненно, между алгоритмами существует определенная связь (не важно, прямая или косвенная) но каждый алгоритм это отдельный черный ящик. Как видите, это объектно-ориентированный подход.

На данный момент Панда это пример алгоритма, который развился до такой степени, что Google ему полностью доверяет ключи от квартиры. Поэтому в июле 2013 года Google заявил, что теперь этот алгоритм будет регулярно обновляться, каждый месяц – в течении десяти дней. С выходом версии 4.0 алгоритм стал еще круче, и с появлением этого апдейта я начал наблюдать работу этот алгоритма – «тряску», каждую неделю.

И потом мы слышим от Гарри Ила что Пингвин пойдет тем же путем. И потом на конференции Гарри объясняет, что алгоритм Пингвин (который не был выпущен 17 октября) будет сконструирован таким образом, что последующие апдейты будет внедрять еще проще. В общем как у Панды.

А что если Google так само поступит с пиратским Алгоритмом, «Первая полоса» и всеми остальными алгоритмами которые они разрабатывают в своей Франкенштейнской лаборатории? Тогда, мои друзья, наступит полный хаос, и Интернет сообщество, каким мы его знаем – изменится навсегда. Возможно это небольшое преувеличение, но вы меня поняли.

Защита от Панды

Google и так умудряется всех одурачить, что же будет дальше ... Если мельком заглянуть в будущее, то там мы увидим постоянно продолжающиеся апдейты алгоритмов, и любой из них может растерзать ваш сайт. Конечно, возможно по некоторым признакам, можно будет опознать — какой именно алгоритм накрыл ваш сайт, но от этого не легче. Я не знаю как вы, но мне хочется посыпать голову пеплом.

Актуальный пример работы алгоритма в режиме реального времени

После выхода апдейта Панда 4.0 я видел очень странные подвижки на сайтах, которые ранее были поражены этим алгоритмом. Это показывает, на что будет похожа работа алгоритмов в режиме реального времени. Есть живые примеры когда сайты освобождались от этого фильтра довольно быстро, если они не заходили слишком далеко в серую зону.

Теперь же, когда Панда дергается каждую неделю, может быть такая ситуация, что вы будете иметь проблемы от этого алгоритма несколько раз в течении месяца.

Ниже скриншот сайта, который освободился от Панды, но на сайте не начали производиться изменения, чтобы вывести сайт из серой зоны, и через 5 дней сайт сова попал под фильтр.

Быстрое восстановление от панды

Мама дорогая, это слишком быстро. Надеюсь что владелец сайта не успел запланировать поездку в далекую страну. Это конкретный пример того что будет происходить, если главные алгоритмы будут колбасить Интернет в режиме реального времени. Одну неделю у тебя все прекрасно, а на следующей неделе ты в трауре. На данный момент, я хотя бы знаю, что это Панда. Вебмастер может понять, что проблема кроется в качестве контента и начнет работать над контентом, чтобы выйти из серой зоны ... Хотя, американские гонки из наложения фильтра и его отката может довести вебмастера до безумия.

Мой комментарий. Кстати, мне кажется, что нечто подобное тестирует и Яндекс. Вот пример сайта, у которого наблюдались серьезные изменения едва не каждые 2 недели.

Апдейты Яндекса

Продолжение статьи. И это одна из причин, почему я говорю, что нужно кардинально менять работу сайта, если ваш сайт попал под действие Панды. Уходите максимально далеко от серой зоны.

Меры принятые автоматически – в Google Webmaster Tools помогло бы решить проблемы (и это уже рассматривалось сотрудниками Google)

Так как все это вызовет у вебмастеров массу недоумения, то стоит обратиться к Google чтобы они разработали опцию «меры принятые автоматически» в вебмастер панели Google. Это было бы похоже на раздел – «меры принятие вручную», но только там бы отображались данные о том какой алгоритм понизил сайт в результатах поиска (вместо отображения ручных санкций). Это был бы совершенно другой подход.

Эта опция помогла бы вебмастера понять характер проблемы, которая привела к наложению фильтра на сайт, фильтра: Пингвин, Панда, Пиратский фильтр, Первая Полоса и т.д. Не нужно лишний раз говорить, что это было бы очень удобно для вебмастеров, владельцев бизнеса и SEO оптимизаторов. Увидим ли мы эту опцию в ближайшем будущем?

Во время общения с вебмастерами, сотруднику Google – Дожну Мюллеру задали этот вопрос. Смотреть с 38:30.

Джон начал объяснять, что они хотят с этим разобраться, но это не просто. Над построением поиска работает много алгоритмов, что они не хотят настраивать обратную связь по этому пункту, чтобы не ввести никого в заблуждение. Хотя Джон сказал, что в Google проходили внутренние обсуждения по разработки подобной опции. Поэтому неизвестно чем это закончится …

Короткая заметка про Мета Катса

Возможно многие из вас знают, что Мет Катс взял продолжительный отпуск этим летом (отпуск длился до конца октября). И на Хэллоуин он объявил, что продлевает свой отпуск до 2015 года. Я не собираюсь сходить с ума от этого заявления, я просто хочу рассмотреть, как это относится к вебмастерам, апдейтам алгоритмов и борьбе с веб спамом.

Мет не только сообщает о выходе важных алгоритмов, но и делает много другой важной работы. Мет включается в работу, когда количество косяков нового алгоритма выходит за разумные пределы. Поэтому, нет более простого способа устранить ошибки нового алгоритма как привлечь мистера Катса.

Поэтому, прежде чем так просто отпустить Мета в отпуск и посчитать, что в это время будет все гладко – посмотрите на этот скрин.

Мет Катс

Обратите внимание на временное падение трафика, 14 дней ада и последующее возвращение трафика. Это произошло, потому что в работу включился Мэтт. Это было фиаско видео блогов, которое произошло в начале 2014 года, и которое я глубоко анализировал. Если бы Мету не сообщили про обвал видео блогов, и он не принял меры, я не уверен, что видео блоги находились бы на том уровне, на котором они находятся сейчас. Я сказал Петру из SlashFilm что его коллеги видео блоггеры должны выплатить ему бонус. Именно он сообщил Мету про глюк вышедшего апдейта, и Мет отреагировал и откатил тот апдейт.

Это пример того, что если вовремя оповестить влиятельного человека, то это позволить убить в зародыше серьезную проблему. Для зафильтрованных сайтов это было 2 недели небывалой жести, но потом Google пофиксил баги на своей стороне и трафик вернулся.
Теперь, когда Мет отошел от дел — кто станет тем влиятельным парнем? Возможно этот будет Джон Мюллер или Пьер Фар, или кто-то еще. Джон и Пьер классные ребята и делаю много хороших дел, но будут ли они распинаться чтобы навести порядок если очередной апдейт раздавит какую-то нишу. Будут ли они продвигать изменения, чтобы сайты вернули свои позиции? Или, как минимум, будут ли они беспокоиться по поводу решения существующих проблем?

Это все хорошие вопросы, но я не хочу чтобы этот пост был слишком длинным (хотя он и так уже длинный). Но только не смейтесь с того, что Мет Катс взял дополнительный отпуск. Если он ушел навсегда, то можно только догадываться: как его уход повлияет на SEO сообщество. Надеюсь, он уходит не потому, что последний апдейт причинил вред вашим сайтам.

Может быть он хочет организовать марафон.

Мет Катс Марафон

Или примерить костюм для Хелоуина.

Проект scream

Мет scream

Мет scream final

Но что же будет с нами?

Рекомендации, движемся дальше

Так что же будет с нами? Как вы можете подготовиться к приближающемуся шторму из пересекающихся алгоритмов. Ниже я предоставил некоторые кейсы, которые, как я считают, должен учитывать каждый вебмастер. Я рекомендую вам сейчас забуриться в улучшение ваших сайтов, пока главные алгоритмы еще не работают в режиме реального времени.

  1. Трезво оцените слабые места вашего сайта. Google будет продолжать разрабатывать внешние алгоритмы, чтобы позже настроить их на работу в режиме реального времени. И когда-то они все одновременно будут работать в режиме реального времени. Будь готов наводить порядок на своем сайте прямо сейчас.
  2. Фиксируйте и документируйте все изменения которые происходят с сайтом. Обращайте внимание на все примечания в Google Webmaster tools и Google Analytics (и Яндекс Метрике) и ведите таблицу апдейтов с подробные описанием каждого апдейта.
  3. В то же самое время, скачайте с Google Analytics (или Яндекс Метрики) все данные за последний месяц. Как человек, который помогает многим компаниям выводить сайты из под фильтров Google, я вам говорю – это неимоверно важная информация. Эти данные могут указать вам на спасительную дорожку для вашего сайта.
  4. Используйте аудиты от разных компаний и фокус групп, чтобы понимать реальный уровень качества и ценности вашего сайта. В своем посте на тему агрессивная реклама и Панда я упоминал, что заключения фокус групп по вашему сайту могут быть на вес золота (для выявления Пандо-образных проблем). Многие вебмастера слишком близки к своему контент и своим сайтам, чтобы трезво судить о его качестве. Предубежденность может быть реальной проблемой, которая потопит ваш сайт.
  5. Кроме аудита сайта, вам нужно внимательно анализировать ваш ссылочный профиль. Я рекомендую проверить входящие ссылки и избавиться нехороших ссылок. Использует инструмент Disavow links для ссылок, которые вы не можете удалить. Комбинация из: увеличения качества контента, увеличение вовлеченности посетителей (пользовательские факторы), избавление от всех косяков в юзабилити, и очистка ссылочного профиля – позволят достичь длительного SEO успеха. Не работайте только над одной гранью ваших SEO проблем, обращайте внимание на все грани.
  6. Избавьтесь от того, что мешает внедрять изменения на вашем сайте и развивать сайт. Вы должны действовать быстро. Вы должны быть решительными. Вы должны избавиться от волокиты, которая мешает внедрять изменения на сайте. Не сдавайтесь даже если на кухне слишком много хозяек. Понимайте, что вам нужно изменить на сайте и внедряйте эти изменения. Вот так становятся мудрыми SEO победителями.

Итог: а вы готовы к приближающемуся шторму?

SEO это постоянное движение и развитие, поэтому важно чтобы вебмастера умели быстро адаптироваться. За последние несколько лет четкая, объектно ориентированная стратегия Google по борьбе с веб спамом произвела на свет следующие алгоритмы: Панда, Пингвин, Пираткий алгоритм, Первая полоса. А многие другие изменения уже в пути. Мой совет вам приводите в порядок ваш сайт сейчас, пока алгоритмы не смешались в гремучую смесь, которая будет поражать сайты и будет трудно идентифицировать и устранить причину, почему ваш сайт попал на крючек.

А теперь простите меня, я пошел перезаряжать свои батарейки.

Про Глена Гейба
Глен маркетолог консультант G-Squared Interactive, его специализация это продвинутое SEO, SMM, социальная реклама и веб аналитика. Можете прочитать другие его посты в блоге. Также можете подписаться на него и Google+.

PS
Это мой перевод этой статьи  с сайта moz.com.

Завтра постараюсь перевести комментарии к оригинальному посту.

Понравилась статья?
Подписывайтесь на обновления, актуальные статьи на тему SEO, заработка в интернете, переводы зарубежных статей и многое другое:

Комментарии 12

  1. Нифига себе статья)) Сколько символов?

    • Апокалиптик

      Немало, хватило бы на один сайт-сателлит )). Шутка 17,5 тыс. знаков. Посчитал знаки и сам удивился как я все это перевел. Переводил в 3 подхода.

  2. Сейчас уже влом читать столько текста, завтра с утра попытаюсь осилить. Надеюсь это не очередная вода от moz любят они там перебирать одно и тоже...

    • Апокалиптик

      Да любят. Но мне статьи Глена Реально нравится читать и переводить. Чувак реальный аналитик, в отличии от многих других статей тут не так много воды. Так что советую все-таки прочитать статью ). Кроме того, мне кажется в Яндексе уже работают такие разные антиспамные алгоритмы которые встроены в выдачу и запросто могут выкинуть какой-то сайт. В общем материал актуальный )

  3. Как думаешь, у Мэта девушка есть?

    • Апокалиптик

      Меня конечно интересует Мет, но сильно в его биографию не вникал. Возможно даже и нет, на западе не спешат заводить семью. Живут красиво, отдыхают, занимаются спортом, зачем какие-то еще узы ))

  4. Схожие симптомы на одном из сайтов: prntscr.com/57spca

    • Апокалиптик

      Согласен. Есть какие-то самостоятельные алгоритмы которые сами могут рубануть сайт. И думай потом что делать )

  5. Хорошая структурированная портянка с фото и подзаголовками. Такое сейчас должно рулить.

  6. Лучше сосредоточиться на пользователях чем на ПС. При любом раскладе трафик будет.

    • Апокалиптик

      Это всегда безошибочный ответ. Но не всегда одно другому противоречит. Если есть базовые правила оптимизации, и в рамках этих правил можно писать супурские статьи для пользователей, то почему бы и нет. Не нужно делать сайты под какие-то темы, под какой-то модный способ перелинковки, а но все же основные правила SEO нужно знать и выполнять.

Kwork.ru - фриланс нового поколения, всё за 500 рублей
рекламный баннер