Анализ и выводы по алгоритму Penguin 2.1 (обновленная версия, запущенная Google 4 октября 2013 года)

Оригинал статьи можно прочитать тут.

В пятницу, 4 октября в 16:50, Мэтт Каттс объявил о запуске алгоритма Penguin 2.1.
Я проанализировал 11 веб-сайтов (сейчас их уже больше), которые пострадали от запуска данного алгоритма.
Поскольку версия алгоритма носит название Penguin 2.1, можно сделать вывод, что основа алгоритма Penguin не поменялась, суть изменений – в обновлении данных.
Давайте перейдем к тому, что я обнаружил в ходе исследования.

Новые даты, новый спам
Анализируя сайты, пострадавшие от действия алгоритма Penguin 2.1, я обратил внимание на то, когда появились неестественные ссылки. У большинства сайтов, пострадавших от алгоритма Penguin 2.1, неестественные ссылки появились в конце весны 2013 года или в течение лета.

Это имеет особенное значение, т.к. эти сайты не пострадали от алгоритма Penguin 2.0, запущенного 22 мая 2013 года. Однако с запуском обновленной версии от 4 октября 2013 года они потеряли в выдаче. Это значит, что Google настолько усовершенствовал свой алгоритм, что «заметил» все новые неестественные ссылки.

 

Категории целевых неестественных ссылок
После запуска Penguin 2.1 возник вопрос, какие виды ссылок Google теперь идентифицирует как спамные.
Итак, что я обнаружил, анализируя пострадавшие ресурсы:

  • Спам на форуме. Предыдущая версия алгоритма «просеивала» спам на форумах, но новая версия делает это с особым «рвением». Отныне комментарии в темах форумов с использованием ключевых слов в качестве анкоров просто «кричат» Google о том, что сайт хочет обмануть систему.  Также я заметил, что много спама на форуме смешено с биоспамом на форумах (о котором говорится ниже).
  • Биоспам на форуме. Ссылки из пользовательских профилей, где в качестве анкора используется ключевик, также могли стать причиной пессимизации.
  • Do-Follow блоги. Я видел ссылки с различных ресурсов, которые можно отнести к do-follow блогам –блогам, которые не добавляют атрибут «nofollow» к размещенным ссылкам (иногда даже к ссылкам в подписях комментариев). По сути, быть упомянутым на одном из ресурсов do-follow – это все равно, что сообщить фильтрам Google, что вы «химичите» со ссылками. Если вы этим занимаетесь и позиции вашего сайта упали из-за Penguin 2.1 – как можно скорее удалите подобные ссылки.

  • Blogroll спам (ссылки на другие блоги). Как и после запуска Penguin 1.0 и 2.0, в выдаче снова упали сайты, использующие спам-ссылки на другие блоги. Необходимо раз и навсегда усвоить, что такие ссылки вряд ли несут пользу, когда используются на сомнительных сайтах. Я верю словам Джона Мюллера (глава команды помощи вебмастерам Google), который официально заявил, что в целом использовать blogroll неплохо, но очень важно, где и как они используются. При неправильном подходе они могут нанести вред. Если у вашего сайта множество ссылок с сомнительных источников, я вам настоятельно рекомендую удалить их. Если вы не можете определить, какие ссылки лучше удалить, а какие – оставить, обратитесь к опытному SEO-специалисту.
  • Спам-каталоги. Если у вас есть ссылки на подобных спам-каталогах – откажитесь от них. Исследуя работу алгоритма Penguin, я неоднократно сталкивался с этим видом ссылок.

  • Спам. Подписи в комментариях к блогу. Если вы использовали в своей подписи ссылку с  точным совпадением ключевика  или спамным анкором в виде текста, будьте готовы, что  она привлечет внимание Пингвина. При этом я заметил, что атрибут «nofollow» не мешает алгоритму понижать сайты в выдаче.

 

Особое внимание к внутренним страницам, как и в Penguin 2.0
Внутренние страницы сайтов также подверглись фильтрации Penguin 2.1, как это было при Penguin 2.0. Для тех, кто не в курсе: алгоритм Penguin 1.0 просматривал ссылки только на главные страницы сайтов, тогда как версия  Penguin 2.0 анализировала все  страницы ресурса.
Цель Google  – детально анализировать все страницы, независимо от того, насколько глубоко в структуре сайта они находятся, поэтому множество ресурсов после выпуска Penguin 2.0 (и 2.1) сильно пострадали.

Как восстановиться:

Мой совет не поменялся со времен запуска первого Пингвина. Если сайт упал в выдаче из-за него, вам необходимо предпринять целый ряд мер:

  • Соберите список своих бэклинков – загрузите все свои ссылки с различных ресурсов, включая Google Webmaster Tools, Majestic, Open Site Explorer и т.д.
  • Проанализируйте их – определите, какие из них являются неестественными, пометьте их в таблице и удалите.  
  • Отказывайтесь от ссылок  – разработайте план по удалению неестественных ссылок. Рекомендую рассмотреть как можно большее количество ссылок вручную. Подробная инструкция по чистке ссылочной массы.
  • В удалении страниц нет ничего страшного –  страницы с большим кол-вом спам-ссылок на вашем сайте вы также можете удалить. Джон Мюллер из Google подтвердил, что удаление страниц сродни удалению ссылок. Конечно, речь не идет о важных страницах (как например, главной).

Как только вы почистите все свои ссылки, вам необходимо дождаться запуска очередного обновления алгоритма Penguine.

Если позиции вашего сайта просели, вернуть их можно. Главное – действовать оперативно и настойчиво. Удачи!

Не получается снять Google Penguin самостоятельно? Обращайтесь к нам



Администрация SEOlib.ru

Администрация SEOlib.ru

Администрация сервиса для мониторинга позиций и аналитики SEOlib.ru


  • Обновился ли ваш инструмент http://www.seolib.ru/script/extlinkslight/ с учетом изменений в алгоритме Penguin 2.1?

  • Олег

    Я в шоке: вроде бы серьезный портал выложил перевод статьи какого то забугороного говно блогера. Статья не о чем. У наших «специалистов» мозги полностью атрофировались?

  • Дмитрий, сейчас наша команда плотно работает над переводом системы Seolib на улучшенную архитектуру и новый дизайн. В новом Seolib будут учтены в том числе изменения в алгоритмах поисковых систем. Старые инструменты поддерживаются в ограниченном режиме — http://blog.seolib.ru/seolib/plany-po-sisteme-seolib/.
    Если будут вопросы, пишите, пожалуйста,на support@seolib.ru

  • Олег,это первые выводы, которые появились на тему обновленного Пингвина. Хотя они и очевидны. Пока специалисты Рунета не спешат делиться информацией, а наши штатные эксперты пока анализируют, результаты еще не готовы.

  • SEO

    Не соглашусь, т.к. do-follow — это естественные ссылки с блогов, оставленные в комментариях. Тут можно распределять тоже на подкатегории. Если, к примеру, на странице 1000 ссылок в комментариях или же пару ссылок.

    Цитирую:
    Проанализируйте их – определите, какие из них являются неестественными, пометьте их в таблице и удалите.

    Ответ: Какие же? Гугл присылает примеры, но как говорили, особо понять почему не естественная очень трудно. Разве что из-за тематики, на которую гуглу пофигу.

  • Максим

    Кумарят такие парни как Олег! Парень, дай свое видение проблемы. А кричать и засырать каждый может. Олег, а ты Троль?

  • Ольга

    Было бы счастье если бы ссылочная масса вообще не учитывалась поисковиками. Только релевантность.
    И тогда в выдаче были бы действительно полезные результаты. А не те кто больше ссылок купил и лучше их «подогнал» под естественные.

  • Да вы правильно говорите, естественными ссылками являются только те ссылки, которые появились естественно т.е. проставлены пользователями! Автор пишет: «Если вы этим занимаетесь и позиции вашего сайта упали из-за Penguin 2.1 – как можно скорее удалите подобные ссылки.» т.е. если ВЫ САМИ ставили ссылки в do-follow блогах, уберите их. Хотя конечно сейчас не все так однозначно.

  • Алексей

    C блогами и do-follow — будет расценено как спам, только если вы спамить будете хрумером, или чем там делают…. если это ссылка из ника, типа сайт комментатора — с чего бы расценивать это как спам? Нормально все. А про форумы — правильно делают, это логично, ну какая тетка на форуме про пироги поставит ссылку на чей-то сайт с анкором «купить чайник онлайн москва недорого» ??? )))

  • Михаил

    Ольга, у ваш сайт релевантный? Вы сможет научить поисковые алгоритмы выбирать самый релевантный документ из нескольких миллионов?
    Вы мягко говоря, не разбираетесь в вопросе.

  • Сегодня сложно утверждать, что спамная ссылка будет таковой только если она проставлена хрумером или другими похожими программами. Если на ваш сайт ведет энное количество ссылок с прямым вхождением, трудно не заметить, что это спам, как бы эти ссылки не появились. По поводу ссылок из профилей — автор не утверждает, что они влияют, но и не отрицает.

  • Виктор

    А я с чем-то согласен с Ольгой, если убрать влияние ссылок на ранжирование, то интернет перестанут засирать ссылочным спамом и ссылки будут рекомендацией для пользователя, а не для ПС.
    Что касается релевантности — уже ведь давно пошёл уклон на СЕО-статьи. Правда, это тоже немного портит тексты, не раз натыкался на тексты, которые пестрят ключевыми словами, но всё равно, читать можно.
    Самый лучший алгоритм по мне, это делать ранжирование, основываясь на поведенческом факторе. Нашёл пользователь по фразе нужную инфу в инете и читает ее, т.е. остался на странице и не возвращается больше к поиску — значит инфа, предоставленная на сайте соответствует запросу.

  • Марина

    Хотелось бы добавить, что статья написана немного безответственно…
    Ваш сайт рекомендует в ней удалять страницы сайта, которые имеют много спамных ссылок, и которые не являются очень важными.

    считаю нужным добавить, что при удалении страниц нужно
    1) делать редирект на другую страницу. Много 404 страниц тоже укажут на не очень хорошее качесто сайта, и можно получить фильтр
    2) если у вас нет информативной страницы 404, с указаниями последующих действий возможных — сделайте ее прежде, чем начнете удалять страницы. человеческий фактор иногда не позволяет сделать редирект для всех удаленных страниц)

    если вы удалили страницу, то нельзя
    1) делать новую страницу с таким же URL
    2) делать новую страницу с таким же содержанием
    иначе тоже можно получить фильтр

    так статья если и пользы даст мало, то и не навредит особо рьяным специалистам)

  • Марина, вы правы, очень полезный комментарий. Но эта статья общего характера, поэтому автор подробную инструкцию не составлял.

  • Игорь

    Я так думаю что это один из выводов на счет Пингвина 2.1. На счет периода купленных ссылок после прошлого Пингвина это интересно, возможно как одна из подсказок к правильному выходу из под фильтра. Скажу что имел дело с Пингвином ровно год назад, вроде как 6 октября 2012 года. Было 3 сайта разной тематики, занимавших стабильно топ 5 и подвигавшись одинаково. После фильтра выкинуло за 200, трафик упал вообще до 0. Один и самый эффективный способ, который помог мне вывести все сайты это редирикт 401. Хочу заметить для зевак не просто перенаправить сайт на новый домен, а это нужно делать правильно и за 3-4 недели большинство ключей выходит в топ 10. Для полной реабилитации пациента нужно 3-6 месяцев, но не факт. Но об этом я здесь писать не буду.
    Этот Пингвин был милосердным и выкинул на 2 страницу высоко частотные ключи но не все, все остальные ключи подвинулись на 2-4 места но не все, и то лишь из-за того что старые запингвиненае сайты каким то чудом попали в топ 5 хоть там и не когда небыли и сдвинули таких как я. Вопрос в том что возможно наложили фильтр на конкретный ключ на котором много ссылок, а на высоко частотные ключи нужно много ссылок. И может нужно искать причину именно в этих ссылках которые были куплены на ключ который выпал из топа, и за период с весны?

  • Игорь, бытует мнение, что Пингвин может наложить санкции как на весь домен, так и на отдельные ключевые слова и страницы. Причину нужно искать во всех ссылках и вообще в сайте. Нужно анализировать весь ссылочный профиль и добиваться его естественности. Что касается того, что некоторые запросы ушли на вторую страницу, а другие остались – Пингвин 2.1 был направлен (в основном) на сайты, которые уже пострадали от него раньше. Многие из них он амнистировал, а значит, увеличилась конкуренция и, как следствие, ТОП начал меняться.