Практически ежедневно поисковые системы выпускают дополнения и новые версии своих алгоритмов, одни из них проходят незаметно, другие существенно перетряхивают всю поисковую выдачу. Наиболее крупные изменения, включающие в себя изменения десятков и сотен алгоритмов, получили свои названия и широко известны в среде оптимизаторов. Сегодня я расскажу о 8 знаковых апдейтах алгоритма поисковой системы Google, которые в корне поменяли подходы к поисковому продвижению.
Для большей наглядности откройте график трафика своего продвигаемого проекта, воспользовавшись, например Semrush и сопоставляйте даты апдейтов алгоритма с графиком посещаемости.
Panda
Дата запуска: февраль 2011
Отслеживает: дубликаты контента, плагиат, переспам ключевыми словами, спам-контент.
Как работает: Панда оценивает «качество» документов сайта (страниц) и присваивает некий балл, используемый впоследствии как один из факторов ранжирования. Первоначально алгоритм «Панда» был фильтром, но с 2016 года он стал составной частью основного алгоритма ранжирования. Вследствие этого штрафы (пессимизация) некачественного и переспамленного контента проводится значительно быстрей.
Что делать: Необходимо избавиться от спамного контента и дубликатов контента. Дубликаты можно отловить используя Screaming Frog SEO Spider, просканировав сайт и проверив title и description. Далее необходимо избавится от спамного контента (неинформативного, генерированного, заимствованного и пр.), снизить плотность вхождения ключей, избавиться от явного акцентирования текста на коммерческих ключах, проверить структуру хеддингов, переписать title и description в сторону уменьшения вхождения ключей. Так же избавляемся от неуникального контента, уникализируем изображения. Для поиска проблемного контента используем либо Copyscape, либо одну из множеств программ, например Advego Plagiatus, AllSubmitter и пр.
Penguin
Дата запуска: апрель 2012
Отслеживает: ссылочный спам, ссылки с нерелевантных сайтов, ссылки с ссайтов соштрафами, «ядовитые» ссылки, ссылки с переоптимизированными анкорами.
Как работает: отслеживает явное манипулирование ссылочным профилем сайта. Наказывает пессимизацией в выдаче за некачественное и неестественное ссылочное. С 2016 года стал составной частью алгоритма поисковой системы, поэтому работает не апдейтами, а в режиме реального времени.
Что делать: прекратить закупать дешевые нестественные ссылки, по которым нет и не может быть никаких кликов (сайты с минимальным трафиком). Необходимо провести аудит ссылочного профиля (выгрузив ссылки из вебмастера гугла), отказаться от «неестественных» ссылок с обилием ключей в анкоре, от ссылок с «некачественных» сайтов, от дублей ссылок с одной страницы, от сквозных ссылок и пр. При невозможности удаления таких ссылок обязательно сделать Disavow Links (отклонение ссылок) в Search консоли Гугла (вебмастере). Очень удобно делать список отклоняемых ссылок непосредственно в SemRush, Majestic (если есть у вас доступ). Так-же есть инструменты — помощники для аудита ссылочного профиля, например SEO SpyGlass. Есть сервисы по проверке качества ссылок, что то вроде checktrust. Однако наиболее правильно — выполнить аудит ссылочного профиля самостоятельно.
Hummingbird
Дата запуска: август 2013
Отслеживает: некачественный контент и избыток ключевых слов в документе (переспам).
Как работает: алгоритм «Колибри» позволяет интерпретировать естественный язык и ранжировать страницы, даже если в текст не включены поисковые запросы. Это достигается использованием алгоритмов опирающихся на латентные семантические индексы, использование синонимов и похожих терминов. Отслеживает «естественность» текстов и штрафует за переспам ключевыми словами.
Что делать: использовать контент, написанный естественным языком. Не допускать избыточного использования ключей.
С введением этого алгоритма в среде оптимизаторов стала модна аббревиатура LSI – латентное семантическое индексирование, которое предполагает, что поисковый робот выделяет из текста не отдельные фразы, часто встречающиеся среди вводимых в поисковую строку, а выбирает тематику страницы на основании комплекса используемых на ней слов, включая словоформы, синонимы и близкотематические фразы.
Именно поэтому стоит широко внедрять синонимы и связанные выражения с ключевыми словами. Более тщательно подходить к работе с ключевыми словами, опираться на «подсказки» выдачи поисковых систем, которые отлично показывают связанные с ключом запросы.
Алгоритм породил множество сервисов, связанных с подбором LSI — ключей, хотя давно уже существовали вордстаты с их подсказками «Что еще ищут..». Сегодня можно использовать для поиска:
- Блоки самих поисковых систем Вместе с » (тут ваша фраза в поисковике) » часто ищут
- Вордстаты поисковых систем
- Google Keyword Planner
- Сервисы Арсенкина
- Куча других сервисов и программ, дублирующих функционал вышеописанных: Pixel Tools, LSI Graph / LSI Keyword Generator, Ubersuggest tool и т.д.
Используя вышеперечисленные сервисы можно получить (собрать) несколько идей для расширения семантического ядра вашего сайта в нужном направлении. Осталось дело только за качественным журналистом — копирайтером.
Смотрите также статью «Ключевые слова в эпоху LSI алгоритмов«
Pigeon
Дата запуска: июль — декабрь 2014
Отслеживает: некачественное on и off — site SEO, влияющее на региональную выдачу.
Как работает: оказал сильное влияние на региональную выдачу, отслеживая некачественные внешние ссылки и сигналы и переоптимизацию страниц сайта. Алгоритм тесно увязал региональную выдачу и общую органик — выдачу: традиционные алгоритмы ранжирования и фильтров стали обширно применяться в региональной выдаче.
Что делать: для доминации в региональной выдаче необходимо делать качественное SEO, опираясь на реалии общей выдачи поисковой системы. Кроме того, необходимо привязать сайт в вебмастере к региону, строить ссылочное с региональных бизнес ресурсов и «желтых» каталогов сайтов, для коммерческих ресурсов широко использовать «Google Мой бизнес«, переработать страницу контактов, добавив карту Google с адресом компании, обилие фотографий предприятия и коллектива, проводить offline работу по продвижению бизнеса и сайта (реклама того же QR-кода на листовках, визитках, флаерах и пр). Обязательно работать с отзывами клиентов. Внедрять на сайт метки геолокации, в том числе телефонные номера с кодом региона.
Mobile
известен также как Mobilegeddon
Дата запуска: апрель 2015
Отслеживает: «неадаптивность» или отсутствие мобильной версии сайта.
Как работает: алгоритм вычищает и серьезно понижает в основной выдаче сайты без «мобильной» версии. Кроме того, в мобильной выдаче в ТОП выводятся только «мобильные» версии сайта.
Что делать: внедрить шаблон с респонсивной версткой (резиновой) или адаптивной версткой (отдельная версия сайта под мобильные устройства). Далее необходимо провести ряд работ: оптимизировать скорость загрузки страниц сайта, сделать загрузку всех скриптов ассинхронным, оптимизировать размеры и вес изображений, использовать кэширование сайта. Для проверки мобильности вашего ресурса используйте инструмент от Google. Кроме того, если динамического контента на странице мало, рекомендуется использование AMP страниц.
RankBrain
Дата запуска: октябрь 2015
Отслеживает: релевантность запросов контенту, штрафует за некачественное или бесполезное содержание, понижает в выдаче сайты с неудобным пользовательским интерфейсом (User Experience Design).
Как работает: RankBrain — самообучающаяся система с искусственным интеллектом, поддерживающая обработку результатов поиска Google и обеспечивающая более релевантные результаты для пользователей. Если RankBrain видит слово или фразу, но не знаком с ней, алгоритм может сделать предположение относительно того, какие слова или фразы могут иметь аналогичный смысл и фильтровать результат, что соответственно делает его более эффективным при обработке поисковых запросов, которые ещё никогда не задавали пользователи. В автономном (офлайн) режиме RankBrain получает данные о прошлых поисковых запросах и, анализируя их, узнаёт, как настроить результаты поиска. После того как результаты RankBrain проверяются командой Google, система обновляется и вновь работает в режиме реального времени. Google называет RankBrain третьим по важности рейтинговым фактором.
Что делать: использовать на сайте более разнообразный и качественный (полезный) контент. Выполнить конкурентный анализ с использованием методик TF-IDF, следовать за ТОПом. Нанять хорошего UX — дизайнера и модифицировать интерфейс и бизнес-логику сайта. Для анализа подойдет софт: WebSite Auditor, Мегаиндекс, Allsubmitter (частично) и многие другие программы и онлайн сервисы.
Possum
Дата запуска: сентябрь 2016
Отслеживает: некачественный и спамный контент в локальной выдаче. Убирает монополию компаний в результатах локального поиска (1 компания — 1 место в выдаче,вместо нескольких страниц одной компании).
Как работает: алгоритм направлен, в основном, на малый бизнес и некрупные региональные компании. Увеличивает число компаний в локальной выдаче, в зависимости от места запроса (координат) пользователя. Отслеживает спамный контент и удаляет его из выдачи. Удаляет дубли представлений компании в выдаче. В августе 2017 алгоритм подвергся модификации, получивший название «Hawk», который применяет более строгие правила фильтрации компаний.
Что делать: проверьте ранжирование ваших важных ключей, используя местный поиск. Очень удобным инструментом для отслеживания местного (локального) поиска является Ad Preview. Кроме того существует десяток программ, позволяющих собирать и анализировать местную выдачу. После проведения анализа ключей в местной выдачей проводим стандартную работу по их продвижению, в случае их низких показателей, используя геометки.
Fred
Дата запуска: март 2017
Отслеживает: избыточность рекламы, сайты созданные исключительно с целью продвижения услуг третьих лиц (аффилированность) и не несущие дополнительной полезной информации.
Как работает: Гугл пока не подтвердил наличие отдельного алгоритма Фред, но вебмастера прочуствовали его ведение. Наиболее пострадали сайты, активно монетизируемые владельцами с низким качеством контента. Также произошло дальнейшее ужесточение алгоритма по отслеживанию некачественных ссылок.
Что делать: Провести анализ ссылочного профиля. Провести аудит качества контента вашего сайта. Ответить на вопрос, приносит ли ваш сайт добавочную пользу посетителям. Снизить рекламные предложения на сайте, отказаться от сомнительных партнерок. Рекомендую в очередной раз перечитать «Рекомендации Google по обеспечению качества веб-сайтов» и проверить соответствует ли сайт стандартам Better Ads.
Таким образом, Ваш сайт может подвергаться пессимизации со стороны как одного, так и нескольких фильтров или групп алгоритмов поисковой системы. Более того, пословам гугловцев, ежедневно осуществляется запуск 2-3 небольших алгоритмов/фильтров которые корректируют или совершенствуют поисковую выдачу. Отсюда, необходимо быть постоянно в курсе основных нововведений и периодически проводить проверку собственных проектов, дабы избежать влияния негативных факторов.
Как вам известно, я иногда делаю SEO консультации компаниям и одиночным товарищам по отдельным аспектам продвижения. Как показала наработанная статистика, практически нет сайтов без нареканий. В большинстве случаев, особенно у молодых сайтов, наблюдается неудовлетворительное ссылочное. Многие грешат закупкой дешевого ссылочного, без должного отбора доноров. Зачастую к разбавке анкор-листа подходят формально: пихают просто ключи и разбавляют всякими глупостями наподобие «здесь», «по ссылке» и пр. Некоторые недопонимают что тематичность при линкбилдинге должна быть не только и не столько донор/акцептор, а как страница с ссылкой у донора должна быть тематична странице у акцептора, куда ведет ссылка.
Следующая ошибка у многих сайтов — отсутствие оптимизации страниц, когда грузятся многомегабайтные картинки, куча ненужных скриптов, что существенно замедляет работу проектов.
У старых сайтов наблюдается обилие битых страниц, что связано с неоднократной реорганизацией структуры, иногда теряются в неизвестном направлении составные части сайтов: сайтмапы, разделы, изображения и скрипты.
Много нареканий вызывает и Юзер-френдли интерфейс сайтов, лишь немногие компании используют наработки UX — дизайнеров.
В целом ошибок много у всех и нужно тщательно подходить к анализу и развитию собственных проектов. Зная ограничения и «засады» поисковых систем, надеюсь у вас получиться легко продвинуть Ваши проекты в ТОП.
Берегите себя.
Сен
2017
Об авторе:
DrMax. Занимаюсь аудитами, оценкой качества YMYL проектов и SEO сайтов более 20 лет. В настоящее время провожу аудиты и реанимирую трафик сайтов, восстанавливаю позиции в органической выдаче сайтов, помогаю снять алгоритмические и ручные штрафы Google. В портфолио - продвижение несколько десятков проектов как региональных частников, так и крупнейших мировых компаний. Владелец SEO блога Drmax.su. Автор 22 книг по продвижению и аудиту сайтов.