Главная Сео Оптимизация Два Сео совета, продвижение в Google9 июля 2010

Два Сео совета, продвижение в Google

Сео для Google


Сео дело не легкое, чтобы его постигнуть, нужно перерыть тонный страниц и сообщений на сайтах и форумах. Человеческий мозг работает таким образом, что запоминает только ту информацию, которая понятна и хорошо структурирована. Если пытаться запомнить сложные формулировки то из этого ничего хорошего не получиться, информация ненадолго попадет в «короткую память» и выветриться. Чтобы хорошо усваивать информацию ее нужно разбивать на осмысленные блоки и усваивать. Что-то меня потянуло на психологию восприятия, к чему бы это :)

Содержание

Охота на дубли

Я уже упоминал, что Google запустил новый метод индексации страниц, и Яндекс теперь его догоняет. Я в этом еще больше убедился, после того как Яша почти две недели отказывался кушать новые страницы, так как велись какие-то разработки. Слава Богу сегодня был хороший апдейт и изголодавшийся Яндекс скушал все что должен был.

Алгоритм индексации становится все более интеллектуальным, я это заметил по тому что с моих сателлитов в сапе потихоньку начали снимать ссылки. Я разведал это дело, и увидел, что Яндекс потихоньку выбрасывает из индекса дублированные страницы, и ссылки с них снимаются. В общем задача ясна, нужно избавиться от дублей.

Совет №1 robots.txt для wordpress

Запрос «robots.txt для wordpress» весьма полезный по нему можно найти много ценной информации. Но все роботсы, которые вы найдете по этому запросу не идеальные, так как не избавляю полностью от дублей в выдаче. Для того чтобы избавиться от дублей в robots.txt нужно запретить:

1. Архивы, например — site.ru/2010/06
2. Метки, — site.ru/tag/stranica
3. Страницы созданные плагином Page Navi или навигацией — site.ru/page/5

Для этого в robots.txt нужно добавить следующие записи

Disallow: /2010/*
Disallow: /tag/*
Disallow: /page/*

На сколько я знаю, эти записи понимает как Яндекс так и Google, поэтому их можно прописать как в User-agent: Yandex так и в User-agent: *

Продвижение конкретной страницы в Google

Что-то давненько я не писал про продвижение в Google, так что держите.

Для того чтобы продвинуть конкретную страницу в Google очень важно знать она находится в основной выдаче или в дополнительной, для того чтобы это узнать достаточно вбить в поиск один простой запрос:

site:site.ru/stranica.html

Если в выдаче будет присутствовать одна единственная страница, то все нормально а если будут присутствовать другие страницы, тогда значит не повезло проверяемой странице попасть в основной индекс.

Даже если страница находится в «соплях», то ее можно от туда вытащить если добавить уникального контента и ссылок на эту страниц, но это в том случае если страница попала в сопли по небольшому количеству критериев, если же страница совсем плохая, то лучше не тратить время и усилий на то, чтобы вытаскивать ее из дополнительного индекса.

При поддержке:
Продвижение сайтов, особенно в Google, это весьма интересное занятие. Кроме продвижения сайтов разработка сайтов тоже весьма ценное и востребованное умение. Если нужен хороший сайт, лучше обратиться к профессионалам.

Про работу:
Если вы владеете навыками создания сайтов или любыми другими полезными навыками, но нет рабочего места, тогда работа в Киеве — это то, что вам нужно. Хорошую работу найти не так легко, но если хорошо поискать, то можно найти.

Понравилась статья?
Подписывайтесь на обновления, актуальные статьи на тему SEO, заработка в интернете, переводы зарубежных статей и многое другое:

Комментарии 11

  1. У меня вопрос: Disallow: /page/* просто страницы не уберет из выдачи? как-то немного стремно именно эту строчку прописывать)

  2. За файл ROBOT.TXT спасибо, я не много знаю команд для работы с ним.=) Точнее самого алгоритма работы

  3. Да за робот реально спасибо...

  4. Капитан Очевидность прямо

  5. А как посмотреть все ссылки на сайт в гугле?

  6. Об основной и дополнительной выдаче Гугла не знал. Спасибо! 😉

  7. Спасибо за пост, узнал новую инфу!

  8. раз речь зашла о гугле, то и написал бы что-нибудь про PR

  9. в свете последних экспериментов дубли на одном сайте не так страшны как дубли на других сайтах

  10. Такой трюк:

    site:site.ru/stranica.html

    не работает для страниц с адресацией, типа hyperseo.ru/?p=1719

    Как проверить наличие в индексе такой страницы? Знаю, что на автомате это возможно, ведь GetGoodLinks как-то проверяет

  11. На мой взгляд, метод через роботс.тхт экстенсивный и неподходящий. Для устранения дублей придумали параметр rel="canonical", указывающий ссылку на страницу-первоисточник. Т.е. для избавления от дублей достаточно добавить этот параметр в ссылки со страниц категорий и любых других. По нему поисковик сам поймет, где лежит основной контент.

рекламный баннер