Оригинал статьи можно прочитать тут.
В пятницу, 4 октября в 16:50, Мэтт Каттс объявил о запуске алгоритма Penguin 2.1.
Я проанализировал 11 веб-сайтов (сейчас их уже больше), которые пострадали от запуска данного алгоритма.
Поскольку версия алгоритма носит название Penguin 2.1, можно сделать вывод, что основа алгоритма Penguin не поменялась, суть изменений – в обновлении данных.
Давайте перейдем к тому, что я обнаружил в ходе исследования.
Новые даты, новый спам
Анализируя сайты, пострадавшие от действия алгоритма Penguin 2.1, я обратил внимание на то, когда появились неестественные ссылки. У большинства сайтов, пострадавших от алгоритма Penguin 2.1, неестественные ссылки появились в конце весны 2013 года или в течение лета.
Это имеет особенное значение, т.к. эти сайты не пострадали от алгоритма Penguin 2.0, запущенного 22 мая 2013 года. Однако с запуском обновленной версии от 4 октября 2013 года они потеряли в выдаче. Это значит, что Google настолько усовершенствовал свой алгоритм, что «заметил» все новые неестественные ссылки.
Категории целевых неестественных ссылок
После запуска Penguin 2.1 возник вопрос, какие виды ссылок Google теперь идентифицирует как спамные.
Итак, что я обнаружил, анализируя пострадавшие ресурсы:
- Спам на форуме. Предыдущая версия алгоритма «просеивала» спам на форумах, но новая версия делает это с особым «рвением». Отныне комментарии в темах форумов с использованием ключевых слов в качестве анкоров просто «кричат» Google о том, что сайт хочет обмануть систему. Также я заметил, что много спама на форуме смешено с биоспамом на форумах (о котором говорится ниже).
- Биоспам на форуме. Ссылки из пользовательских профилей, где в качестве анкора используется ключевик, также могли стать причиной пессимизации.
- Do-Follow блоги. Я видел ссылки с различных ресурсов, которые можно отнести к do-follow блогам –блогам, которые не добавляют атрибут «nofollow» к размещенным ссылкам (иногда даже к ссылкам в подписях комментариев). По сути, быть упомянутым на одном из ресурсов do-follow – это все равно, что сообщить фильтрам Google, что вы «химичите» со ссылками. Если вы этим занимаетесь и позиции вашего сайта упали из-за Penguin 2.1 – как можно скорее удалите подобные ссылки.
- Blogroll спам (ссылки на другие блоги). Как и после запуска Penguin 1.0 и 2.0, в выдаче снова упали сайты, использующие спам-ссылки на другие блоги. Необходимо раз и навсегда усвоить, что такие ссылки вряд ли несут пользу, когда используются на сомнительных сайтах. Я верю словам Джона Мюллера (глава команды помощи вебмастерам Google), который официально заявил, что в целом использовать blogroll неплохо, но очень важно, где и как они используются. При неправильном подходе они могут нанести вред. Если у вашего сайта множество ссылок с сомнительных источников, я вам настоятельно рекомендую удалить их. Если вы не можете определить, какие ссылки лучше удалить, а какие – оставить, обратитесь к опытному SEO-специалисту.
- Спам-каталоги. Если у вас есть ссылки на подобных спам-каталогах – откажитесь от них. Исследуя работу алгоритма Penguin, я неоднократно сталкивался с этим видом ссылок.
- Спам. Подписи в комментариях к блогу. Если вы использовали в своей подписи ссылку с точным совпадением ключевика или спамным анкором в виде текста, будьте готовы, что она привлечет внимание Пингвина. При этом я заметил, что атрибут «nofollow» не мешает алгоритму понижать сайты в выдаче.
Особое внимание к внутренним страницам, как и в Penguin 2.0
Внутренние страницы сайтов также подверглись фильтрации Penguin 2.1, как это было при Penguin 2.0. Для тех, кто не в курсе: алгоритм Penguin 1.0 просматривал ссылки только на главные страницы сайтов, тогда как версия Penguin 2.0 анализировала все страницы ресурса.
Цель Google – детально анализировать все страницы, независимо от того, насколько глубоко в структуре сайта они находятся, поэтому множество ресурсов после выпуска Penguin 2.0 (и 2.1) сильно пострадали.
Как восстановиться:
Мой совет не поменялся со времен запуска первого Пингвина. Если сайт упал в выдаче из-за него, вам необходимо предпринять целый ряд мер:
- Соберите список своих бэклинков – загрузите все свои ссылки с различных ресурсов, включая Google Webmaster Tools, Majestic, Open Site Explorer и т.д.
- Проанализируйте их – определите, какие из них являются неестественными, пометьте их в таблице и удалите.
- Отказывайтесь от ссылок – разработайте план по удалению неестественных ссылок. Рекомендую рассмотреть как можно большее количество ссылок вручную. Подробная инструкция по чистке ссылочной массы.
- В удалении страниц нет ничего страшного – страницы с большим кол-вом спам-ссылок на вашем сайте вы также можете удалить. Джон Мюллер из Google подтвердил, что удаление страниц сродни удалению ссылок. Конечно, речь не идет о важных страницах (как например, главной).
Как только вы почистите все свои ссылки, вам необходимо дождаться запуска очередного обновления алгоритма Penguine.
Если позиции вашего сайта просели, вернуть их можно. Главное – действовать оперативно и настойчиво. Удачи!
Не получается снять Google Penguin самостоятельно? Обращайтесь к нам