5 желательных изменений в алгоритмах Google

Не секрет, что Google — одна из непредсказуемых поисковых систем и многие SEO-аналитики, оптимизаторы, веб-мастера с напряжением ждут его апдейтов. Поскольку ребята — активные игроки на рынке поисковой оптимизации, Google тоже нужно чаще прислушиваться к их советам. Известный западный SEO-специалист Суджан Патель (Sujan Patel) поделился своим видением желательных изменений в алгоритме Google. Оригинал статьи читайте тут.

 

Недавно Google обновил алгоритм для доменов с точным вхождением ключевого слова (EMD). Это прогресс — ясно, что Google потихоньку вытесняет низкокачественные страницы из поисковой выдачи.

Я люблю изменения в алгоритмах и хотел бы добавить еще несколько. Надеюсь Google рассмотрит их в ближайшем будущем.

Изменение № 1: Более точное измерение качества страницы

Не секрет, что Google старается объективно измерять качество страниц. Но есть определенные поисковые алгоритмы, и робот Google не может просто зайти, прочитать пару страниц и решить, какая из них лучше и качественнее.

В связи с этим высказывание: «Google нужно лучше измерять качество страниц», — несколько спорно. Очевидно, что качество поиска — приоритет для крупнейшей поисковой системы, и Google постоянно совершенствуется в этом.

Возможно, одним из наиболее очевидных промахов Google была ситуация, которая сложилась сразу же после выкатки алгоритма Пингвин (Пингвин был создан для удаления веб-спама из результатов поисковой выдачи). Сайт Блоггер, без контента, попал на первую страницу рейтинга по конкурентоспособным ключевым запросам «заработать деньги онлайн».

Подобные ошибки понижают доверие к Google и при этом дают хороший опыт.

Учитывая, что доверие к Google понизилось, думаю, для поисковой системы необходимо ускорить темпы обновления алгоритмов, которые смогут обеспечить высокачественную выдачу страниц и минимизировать влияние будущих апдейтов на сайты, которые невольно попали под санкции. Это повысит уровень доверия к Google и добавит ему конкурентное преимущество.

Изменение № 2: Санкции для «перекрученного» контента

Я назвал один из типов низкокачественного контента «перекрученным» контентом. Это страницы, на которых слова, фразы и предложения автоматически заменили, чтобы генерировать «уникальный контент».

Контент, конечно, уникальный, но читать его невозможно!

Хотя миссия Google — искоренять низкокачественные страницы из поисковой выдачи, я по-прежнему сталкиваюсь с многочисленными случаями «перекрученного» контента.

Безусловно, Google работает над этим, хотя при этом мусорный контент появляется рядом с нормальными результатами в выдаче. И я очень надеюсь, что Google способен ускорить этот процесс и выкатить обновление в срочном порядке!

Изменение № 3: Лучшая интеграция данных с Facebook и Twitter

Конечно, все мы знаем, что у Google есть проблемы с социальной интеграцией. Учитывая, что Бинг имеет договоренности с Facebook и Twitter, Google полагается главным образом на социальные данные, генерируемые молодой сетью Google +.

Возможно, Google не хочет возиться с публичными данными из этих двух социальных сетей. Но если он сделает интеграцию, то сможет серьезно улучшить качество персонализированной выдачи.

Если Google хочет утверждать, что его результаты поиска наилучшие, то он просто не может сделать это без социальных сетей (у Бинга есть право доступа к информации на Facebook и Twitter). Нельзя опираться только на собственную социальную сеть Google+ и говорить, что выдача наилучшая.

Неверно показывать в выдаче профиль Марка Цукерберга  в Google+, который практически не ведется.

Вероятно, эти изменения будут нескоро. Но я верю, что выдача Google будет намного качественнее с интеграцией публичных данных с Facebook и Twitter. Эти преимущества сейчас у поисковика Bing.

Изменение № 4: Не отдавать преимущество ссылкам на профиль

Честно говоря, это одна из вещей, которая доставала меня долгое время. И, несмотря на то, что Google уменьшил выгоды, получаемые по низкокачественной ссылочной схеме, ссылки на профили все еще актуальны.

Теоретически ссылки из профиля автора весомы. В большинстве случаев эти аккаунты делают вклад в авторитетные сайты.

Однако множество ссылок на профили созданы для получения SEO-выгод. Одно время пошел всплеск на автоматизированные инструменты по созданию профилей на многих качественных сайтах веб-комьюнити. Это была одна из схем линкостратегии, которая впустую растрачивала пропускную способность сайта. Сайт был полон спамных профилей, которые, по сути, ничего не дали сообществу.

Предполагаю, что здесь Google явно нарушает Руководящие Принципы Веб-мастеров. В них четко прописан запрет на ссылочные схемы, которые намеренно манипулируют поисковой системой и в ответ не дают никакой ценности. Прошу Google как можно скорее закрыть эту лазейку!

Изменение № 5: Меньше полагаться на About.com, Wikihow.com и Википедию

Одно из последних изменений, которое я хочу упомянуть — попадание в топ поисковых запросов и захламление результатов выдачи страницами с About.com, Wikihow.com и Википедии. Во многих случаях качество статей с этих сайтов ненамного выше качества статей, найденных в массовых каталогах, с которыми Google боролся в прошлом году с помощью Панды.

Если бы я состоял в заговоре с SEO-теоретиками, можно было предположить, что Google отдает предпочтение информации с этих сайтов в отличие от других сайтов, которые предлагают более качественную информацию. Хотя явной монетизированный выгоды у Google нет (в отличие от отраслевых экспертов, которые пишут исключительно для блога, чтобы продавать свои собственные продукты).

Люди с помощью поисковой системы должны найти информацию, которая будет максимально полезна для них. Не думаю, что я одинок в своем разочаровании в Википедии. В About.com достаточно много плохо написанных, с ошибками статей. Поэтому будущие алгоритмы должны включать в себя большее разнообразие источников информации.

А какие изменения вы предложили бы Google?


Администрация SEOlib.ru

Администрация SEOlib.ru

Администрация сервиса для мониторинга позиций и аналитики SEOlib.ru


  • Прекрасная статья! Разделяю мнение автора и очень надеюсь, что релевантность выдач Google будет расти с каждым апдейтом. И по поводу покупок ссылок, хотелось бы тоже пожелать как можно более быструю реализацию алгоритма, исключающего искусственное накручивание важности сайтов.

  • да релевантность сайтов проблема интересная и надеюсь когда нибудь поиск очистится от шлака)