Как извлечь пользу из штормов Google

Мой хороший друг и действительно лучший эксперт по SEO, Григорий Громов, однажды назвал обновления и тесты алгоритма Google «штормами Google». Придуманная фраза была принята во всем мире. Согласно идее Григория, оптимальное SEO обеспечивает балласт, чтобы выдержать шторм, но если шторм ударит и перевернет вас … тогда пришло время выправить корабль.

Ниже приводится процесс, который применялся в течение многих лет, чтобы оценить обновления Google на уровне сайта, для определение и поиска новых возможностей. Это анализ второго уровня после того, как были рассмотрены шаблоны, связанные с заголовком страницы, мета-описанием и тегами H1.

Первый шаг в анализе — установление сроков обновления. Search Engine Land обычно быстро публикует информацию, когда обновление подтверждается, поэтому довольно просто получить приблизительный диапазон дат. Когда у вас будет диапазон дат, начните с Google Search Console (GSC), проведите сравнения в диапазоне дат на топовых страницах и определите дату воздействия.
После установления приблизительной даты начала воздействия захватите две недели до / после даты. Экспортируйте данные в Excel и добавьте колонку, вычисляющую изменение в положении между этими двумя неделями. Сначала лучше смотреть на позитивные изменения, поэтому после создания расчетного столбца изменений, отфильтруйте их для значений, больших чем 0.

positivechange Google

Примечание: Представленные данные — выборочные данные, собранные для демонстрационных целей. Эти показатели не из действующего домена.
По мере продолжения этого процесса мы будем извлекать данные из нескольких источников, а затем объединять их, чтобы сформировать полное представление обо всех критических точках данных SEO. Прежде чем перейти к следующему шагу, мы должны просмотреть данные GSC, чтобы увидеть, существует ли шаблон.

Идентификация шаблонов требует страниц со сходными показателями. Добавьте фильтр для диапазона изменений, который находится вне вашего обычного отклонения. Например, если средняя позиция вашего сайта для ваших страниц с высоким значением вверх или вниз находится в диапазоне от 0,1 до 0,3, что типично для ранжирования на странице 1, добавьте фильтр в столбец изменений, который превышает нормальное отклонение. Для моего примера рассмотрим диапазоны от 0,5 до 0,99. Изменение положения для позиции на одной странице является существенным в двухнедельном временном интервале.
Когда у нас есть набор данных для анализа, мы захватим образцы страниц, имеющих сходные показатели. Страницы с аналогичным изменением позиции, средней позицией и показателями CTR — хороший пример.

storm Google

Рассмотрение одних только данных GSC в этом примере не дал результатов. Изменения позиционирования в положительном диапазоне в нашем своде данных не имеют общих элементов в целом. Вариация CTR значительна, что говорит о том, что положительные колебания не привели к изменению веса в алгоритме, связанному с CTR … так что идем дальше.
Следующим шагом будет использование сканера сайта по вашему выбору. Я предпочитаю Screaming Frog из-за скорости сбора данных. Скопируйте и вставьте в текстовый документ список ваших URL-адресов, которые находятся в диапазоне изменений, которые вы анализируете. Затем запустите сканер по URL-адресам, используя опцию списка в Screaming Frog.

Для этого анализа мы ориентируемся на элементы данных сканера в сравнении с элементами метаданных: описание, название и так далее. Идея состоит в том, чтобы просто искать сходства данных, которые выделяются. Мы ищем очевидных отличников. Редко вы найдете идеальную точку данных, которую вы ищете, чтобы коррелировать с изменением положения во время этого шага. Как правило, именно через весь процесс мы находим несколько точек данных, которые коррелируют.

Google storming

В этом примере найдена пара корреляций, связанных с размером страницы и временем отклика. Известно, что этот просмотр изолирован только от группы URL-адресов, которые улучшены в диапазоне полупозиции, поэтому эти корреляции важны для определения отклонения. Теперь мы находимся в точке, где можно увидеть полную картину этих URL-адресов.

Для завершения работы с изображением необходимо экспортировать данные показателя взаимодействия из пакета аналитики. Google Analytics предоставляет это в отчете о целевых страницах, раздел «Содержимое сайта». Если вы используете Google Analytics, экспортируйте данные также из отчета «Скорость сайта -> Тайминг страницы». Для этих данных мы можем использовать только две недели от даты изменения.

Для получения полного представления данных требуется объединение источников данных. Проблема с консолидацией данных заключается в том, что Google не использует одинаковый формат для URL-адресов в Google Analytics и Google Search Console. К счастью, есть бесплатный инструмент для стандартизации URL-адресов. Просто скопируйте и вставьте URL-адреса из GSC и Screaming Frog в этот инструмент, и он разделит URL-адреса на корневую страницу:

programme trimurls

Если вы работаете с меньшими наборами данных и / или предпочитаете работать непосредственно в Excel, вы можете использовать следующую формулу с некоторыми незначительными корректировками, чтобы разделить полный URL-адрес страницы:

=RIGHT(A3,LEN(A3)-FIND(«/»,A3,FIND(«//»,A3)+2))

Объединение данных требует компоновки электронных таблиц и выполнения просмотров. При использовании больших наборов данных вы можете использовать Access и быстро объединять данные. Используя URL-адреса в качестве столбца для объединения, вы можете создать электронную таблицу со всеми основными элементами данных, которые вам нужны для поиска корреляций.

datacombinedall-a-800x172_5

datacombinedall-b-800x141_6

Помимо оценки данных, URL-адреса с одинаковыми точками данных должны оцениваться на уровне страницы. Например соответствует ли содержание страницы подобным страницам по соотношению, и если присутствуют отзывы клиентов или вопросы и ответы, представлены ли они на похожих страницах в аналогичном объеме?

Документируйте все метрики, которые коррелируют, чтобы мы могли проверить корреляции позже. В приведенных выше выборочных данных есть важная корреляция, которую мы хотим исследовать.

correlateddata-800x177_7

Вывод

Cтраницы, которые получили значительный положительный эффект, имели две коррелирующие точки данных. Время загрузки страницы было менее четырех секунд, а показатель отказов был ниже 33 %.

Последний шаг в этом аналитическом проекте — фильтрация данных для отрицательных изменений и оценка страниц со значительным снижением позиции и проверка правильности теории о том, что время загрузки страницы и показатель отказов превышают значения из набора данных положительных изменений. Если данные демонстрируют, что отрицательные показатели находятся на противоположном конце спектра, вы точно знаете, что необходимо сделать, чтобы вывести отрицательные позиции вверх и улучшить страницы, которые улучшились после обновления алгоритма еще больше.

Качественные обновления — золотая жила для улучшения SEO. В следующий раз, когда выйдет проверенное обновление, запустите анализ и найдите скрытые жемчужины.

Оригинал статьи читайте тут.


Администрация SEOlib.ru

Администрация SEOlib.ru

Администрация сервиса для мониторинга позиций и аналитики SEOlib.ru