Блог

8 крупнейших обновлений алгоритма Google

Практически ежедневно поисковые системы выпускают дополнения и новые версии своих алгоритмов, одни из них проходят незаметно, другие существенно перетряхивают всю поисковую выдачу. Наиболее крупные изменения, включающие в себя изменения десятков и сотен алгоритмов, получили свои названия и широко известны в среде оптимизаторов. Сегодня я расскажу о 8 знаковых апдейтах алгоритма поисковой системы Google, которые в корне поменяли подходы к поисковому продвижению.
Для большей наглядности откройте график трафика своего продвигаемого проекта, воспользовавшись, например Semrush и сопоставляйте даты апдейтов алгоритма с графиком посещаемости.

алгоритм google panda

Panda

Дата запуска: февраль 2011

Отслеживает: дубликаты контента, плагиат, переспам ключевыми словами,  спам-контент.

Как работает: Панда оценивает “качество” документов сайта (страниц) и присваивает некий балл, используемый впоследствии как один из факторов ранжирования. Первоначально алгоритм “Панда” был фильтром, но с 2016 года он стал составной частью основного алгоритма ранжирования. Вследствие этого штрафы (пессимизация) некачественного и переспамленного контента проводится значительно быстрей.

Что делать: Необходимо избавиться от спамного контента и дубликатов контента. Дубликаты можно отловить используя Screaming Frog SEO Spider, просканировав сайт и проверив title и description. Далее необходимо избавится от спамного контента (неинформативного, генерированного, заимствованного и пр.), снизить плотность вхождения ключей, избавиться от явного акцентирования текста на коммерческих ключах, проверить структуру хеддингов, переписать title и description в сторону уменьшения вхождения ключей. Так же избавляемся от неуникального контента, уникализируем изображения. Для поиска проблемного контента используем либо Copyscape, либо одну из множеств программ, например Advego Plagiatus, AllSubmitter и пр.

Google фильтр Penguin

Penguin

Дата запуска: апрель 2012

Отслеживает: ссылочный спам, ссылки с нерелевантных сайтов, ссылки с ссайтов соштрафами, “ядовитые” ссылки, ссылки с переоптимизированными анкорами.

Как работает: отслеживает явное манипулирование ссылочным профилем сайта. Наказывает пессимизацией в выдаче за некачественное и неестественное ссылочное. С 2016 года стал составной частью алгоритма поисковой системы, поэтому работает не апдейтами, а в режиме реального времени.

Что делать: прекратить закупать дешевые нестественные ссылки, по которым нет и не может быть никаких кликов (сайты с минимальным трафиком). Необходимо провести аудит ссылочного профиля (выгрузив ссылки из вебмастера гугла), отказаться от “неестественных” ссылок с обилием ключей в анкоре, от ссылок с “некачественных” сайтов, от дублей ссылок с одной страницы, от сквозных ссылок и пр. При невозможности удаления таких ссылок обязательно сделать Disavow Links (отклонение ссылок) в Search консоли Гугла (вебмастере). Очень удобно делать список отклоняемых ссылок непосредственно в SemRush, Majestic (если есть у вас доступ). Так-же есть инструменты – помощники для аудита ссылочного профиля, например SEO SpyGlass. Есть сервисы по проверке качества ссылок, что то вроде checktrust. Однако наиболее правильно – выполнить аудит ссылочного профиля самостоятельно.

фильтр hummingbird

Hummingbird

Дата запуска: август 2013

Отслеживает: некачественный контент и избыток ключевых слов в документе (переспам).

Как работает: алгоритм “Колибри” позволяет интерпретировать естественный язык и ранжировать страницы, даже если в текст не включены поисковые запросы. Это достигается использованием алгоритмов опирающихся на латентные семантические индексы, использование синонимов и похожих терминов. Отслеживает “естественность” текстов и штрафует за переспам ключевыми словами.

Что делать: использовать контент, написанный естественным языком. Не допускать избыточного использования ключей.

С введением этого алгоритма в среде оптимизаторов стала модна аббревиатура LSI – латентное семантическое индексирование, которое предполагает, что поисковый робот выделяет из текста не отдельные фразы, часто встречающиеся среди вводимых в поисковую строку, а выбирает тематику страницы на основании комплекса используемых на ней слов, включая словоформы, синонимы и близкотематические фразы.

Именно поэтому стоит широко внедрять синонимы и связанные выражения с ключевыми словами. Более тщательно подходить к работе с ключевыми словами, опираться на “подсказки” выдачи поисковых систем, которые отлично показывают связанные с ключом запросы.

Алгоритм породил множество сервисов, связанных с подбором LSI – ключей, хотя давно уже существовали вордстаты с их подсказками “Что еще ищут..”. Сегодня можно использовать для поиска:

  1. Блоки самих поисковых систем Вместе с ” (тут ваша фраза в поисковике) ” часто ищут
  2. Вордстаты поисковых систем
  3. Google Keyword Planner
  4. Сервисы Арсенкина
  5. Куча других сервисов и программ, дублирующих функционал вышеописанных: Pixel Tools, LSI Graph / LSI Keyword Generator, Ubersuggest tool и т.д.

Используя вышеперечисленные сервисы можно получить (собрать) несколько идей для расширения семантического ядра вашего сайта в нужном направлении. Осталось дело только за качественным журналистом – копирайтером.

Смотрите также статью “Ключевые слова в эпоху LSI алгоритмов

алгоритм Pigeon

Pigeon

Дата запуска: июль – декабрь 2014

Отслеживает: некачественное on и off – site SEO, влияющее на региональную выдачу.

Как работает: оказал сильное влияние на региональную выдачу, отслеживая некачественные внешние ссылки и сигналы и переоптимизацию страниц сайта. Алгоритм тесно увязал региональную выдачу и общую органик – выдачу: традиционные алгоритмы ранжирования и фильтров стали обширно применяться в региональной выдаче.

Что делать: для доминации в региональной выдаче необходимо делать качественное SEO, опираясь на реалии общей выдачи поисковой системы. Кроме того, необходимо привязать сайт в вебмастере к региону, строить ссылочное с региональных бизнес ресурсов и “желтых” каталогов сайтов, для коммерческих ресурсов широко использовать “Google Мой бизнес“, переработать страницу контактов, добавив карту Google с адресом компании, обилие фотографий предприятия и коллектива, проводить offline работу по продвижению бизнеса и сайта (реклама того же QR-кода на листовках, визитках, флаерах и пр). Обязательно работать с отзывами клиентов. Внедрять на сайт метки геолокации, в том числе телефонные номера с кодом региона.

алгоритм Mobilegeddon

Mobile

известен также как Mobilegeddon

Дата запуска: апрель 2015

Отслеживает: “неадаптивность” или отсутствие мобильной версии сайта.

Как работает: алгоритм вычищает и серьезно понижает в основной выдаче сайты без “мобильной” версии. Кроме того, в мобильной выдаче в ТОП выводятся только “мобильные” версии сайта.

Что делать: внедрить шаблон с респонсивной версткой (резиновой) или адаптивной версткой (отдельная версия сайта под мобильные устройства). Далее необходимо провести ряд работ: оптимизировать скорость загрузки страниц сайта, сделать загрузку всех скриптов ассинхронным, оптимизировать размеры и вес изображений, использовать кэширование сайта. Для проверки мобильности вашего ресурса используйте инструмент от Google. Кроме того, если динамического контента на странице мало, рекомендуется использование AMP страниц.

алгоритм поисковой системы RankBrain

RankBrain

Дата запуска: октябрь 2015

Отслеживает: релевантность запросов контенту, штрафует за некачественное или бесполезное содержание, понижает в выдаче сайты с неудобным пользовательским интерфейсом (User Experience Design).

Как работает: RankBrain – самообучающаяся система с искусственным интеллектом, поддерживающая обработку результатов поиска Google и обеспечивающая более релевантные результаты для пользователей. Если RankBrain видит слово или фразу, но не знаком с ней, алгоритм может сделать предположение относительно того, какие слова или фразы могут иметь аналогичный смысл и фильтровать результат, что соответственно делает его более эффективным при обработке поисковых запросов, которые ещё никогда не задавали пользователи. В автономном (офлайн) режиме RankBrain получает данные о прошлых поисковых запросах и, анализируя их, узнаёт, как настроить результаты поиска. После того как результаты RankBrain проверяются командой Google, система обновляется и вновь работает в режиме реального времени. Google называет RankBrain третьим по важности рейтинговым фактором.

Что делать: использовать на сайте более разнообразный и качественный (полезный) контент. Выполнить конкурентный анализ с использованием методик TF-IDF, следовать за ТОПом. Нанять хорошего UX – дизайнера и модифицировать интерфейс и бизнес-логику сайта. Для анализа подойдет софт: WebSite Auditor, Мегаиндекс, Allsubmitter (частично) и многие другие программы и онлайн сервисы.

алгоритм ранжирования possum

Possum

Дата запуска: сентябрь 2016

Отслеживает: некачественный и спамный контент в локальной выдаче. Убирает монополию компаний в результатах локального поиска (1 компания – 1 место в выдаче,вместо нескольких страниц одной компании).

Как работает: алгоритм направлен, в основном, на малый бизнес и некрупные региональные компании. Увеличивает число компаний в локальной выдаче, в зависимости от места запроса  (координат) пользователя. Отслеживает спамный контент и удаляет его из выдачи. Удаляет дубли представлений компании в выдаче. В августе 2017 алгоритм подвергся модификации, получивший название “Hawk”, который применяет более строгие правила фильтрации компаний.

 

Что делать: проверьте ранжирование ваших важных ключей, используя местный поиск. Очень удобным инструментом для отслеживания местного (локального) поиска является Ad Preview. Кроме того существует десяток программ, позволяющих собирать и анализировать местную выдачу. После проведения анализа ключей в местной выдачей проводим стандартную работу по их продвижению, в случае их низких показателей, используя геометки.

алгоритм fred

Fred

Дата запуска: март 2017

Отслеживает: избыточность рекламы, сайты созданные исключительно с целью продвижения услуг третьих лиц (аффилированность) и не несущие дополнительной полезной информации.

Как работает: Гугл пока не подтвердил наличие отдельного алгоритма Фред, но вебмастера прочуствовали его ведение. Наиболее пострадали сайты, активно монетизируемые владельцами с низким качеством контента. Также произошло дальнейшее ужесточение алгоритма по отслеживанию некачественных ссылок.

Что делать:  Провести анализ ссылочного профиля. Провести аудит качества контента вашего сайта. Ответить на вопрос, приносит ли ваш сайт добавочную пользу посетителям. Снизить рекламные предложения на сайте, отказаться от сомнительных партнерок. Рекомендую в очередной раз перечитать “Рекомендации Google по обеспечению качества веб-сайтов” и проверить соответствует ли сайт стандартам Better Ads.

Таким образом, Ваш сайт может подвергаться пессимизации со стороны как одного, так и нескольких фильтров или групп алгоритмов поисковой системы. Более того, пословам гугловцев, ежедневно осуществляется запуск 2-3 небольших алгоритмов/фильтров которые корректируют или совершенствуют поисковую выдачу. Отсюда, необходимо быть постоянно в курсе основных нововведений и периодически проводить проверку собственных проектов, дабы избежать влияния негативных факторов.

Как вам известно, я иногда делаю SEO консультации компаниям и одиночным товарищам по отдельным аспектам продвижения. Как показала наработанная статистика, практически нет сайтов без нареканий. В большинстве случаев, особенно у молодых сайтов, наблюдается неудовлетворительное ссылочное. Многие грешат закупкой дешевого ссылочного, без должного отбора доноров. Зачастую к разбавке анкор-листа подходят формально: пихают просто ключи и разбавляют всякими глупостями наподобие “здесь”, “по ссылке” и пр. Некоторые недопонимают что тематичность при линкбилдинге должна быть не только и не столько донор/акцептор, а как страница с ссылкой у донора должна быть тематична странице у акцептора, куда ведет ссылка.

Следующая ошибка у многих сайтов – отсутствие оптимизации страниц, когда грузятся многомегабайтные картинки, куча ненужных скриптов, что существенно замедляет работу проектов.

У старых сайтов наблюдается обилие битых страниц, что связано с неоднократной реорганизацией структуры, иногда теряются в неизвестном направлении составные части сайтов: сайтмапы, разделы, изображения и скрипты.

Много нареканий вызывает и Юзер-френдли интерфейс сайтов, лишь немногие компании используют наработки UX – дизайнеров.

В целом ошибок много у всех и нужно тщательно подходить к анализу и развитию собственных проектов. Зная ограничения и “засады” поисковых систем, надеюсь у вас получиться легко продвинуть Ваши проекты в ТОП.

Берегите себя.

4
  Посмотрите еще

Комментарии

  1. Вячеслав  Октябрь 21, 2017

    Привет. Таких алгоритмов как possum и fred никогда не было. Это все выдумки отдельных сеошников, которые потом были растеражированы по всему интернету.

    ответ
    • DrMax  Октябрь 21, 2017

      Вебмастера по всему миру огребли плюшек (или фильтров) от этих изменений выдачи. То что Гугл официально ничего не подтвердил и не опроверг – это их право. Они и не обязаны отчитываться за развитие собственных алгоритмов.

      Названия им (алгоритмам) даны, чтобы чётко структурировать что именно затронули эти нововведения.

      ответ
      • Семён  Май 8, 2018

        Добрый день.

        А что скажете по поводу ожидаемого обновления алгоритма PageRank? Как изменится влияние ссылок на ранжирование страниц7

        ответ
        • DrMax  Май 8, 2018

          На сегодняшний день именно ссылки играют важнейшую роль в ранжировании. Ни смотря на наличие нескольких сотен иных факторов, ссылочным: качественным, жирным, массовым легко запихнуть в ТОП практически все.
          Но влияние ссылочек потихоньку, по чуть-чуть снижается. Для тех же коммерческих сайтов, наличие цитат NAP на профильных сайтах, каталогах мощных – ничуть не менее важно для ранжирования.
          Вы про обновления патента по расчету PageRank говорили?
          Особо ничего в ранжировании не изменится. Да и влияние ссылок от этого не станет меньше (или больше).

          ответ

Добавить комментарий