Внутренняя оптимизация сайта

Что такое внутренняя оптимизация сайта?

Внутренняя оптимизация сайта – это работы выполняемые над кодом и содержимым сайта для соответствия интернет – ресурса требованиям поисковых систем.

Назначение внутренней оптимизации – стать максимально полезным и удобным конечному пользователю ресурса. После выполнения работ, сайт становится максимально релевантным поисковым запросам и легко занимает первые места в выдачи поисковых машин.

Основными работами при внутренней оптимизации сайта являются:

  • Разработка семантического ядра сайта;
  • Разработка и оптимизация структуры сайта
  • Проверка валидности кода. Приведение его в соответствии со стандартами и требованиями поисковых систем;
  • Работа с контентом сайта;
  • Внедрение и развитие внутренней перелинковки сайта;
  • UX дизайн – оптимизация сайта для удобства пользователя;
  • Повышение CTR в выдаче.

Статьи по внутренней SEO оптимизации сайта


Sitemap.xml для сайта

Если основное предназначение robots.txt – это запрет индексации, то карта сайта sitemap.xml выполняет прямо противоположные задачи. Она отвечает за ускорение индексации сайта и полноту индексации сайта.

Sitemap.xml указывает поисковой системе частоту, с которой возникает необходимость в переиндексации страниц. В этом плане карта сайта особенно важна для сайтов с регулярно обновляющимся контентом (новостные порталы и т. п.). Кроме того, sitemap.xml содержит все важные страницы сайта с указанием их приоритета.

Требования, предъявляемые к карте сайта

РоботФайл Sitemap представляет собой XML-файл, в котором перечислены URL-адреса веб-сайта в сочетании с метаданными, связанными с каждым URL-адресом (дата его последнего изменения; частота изменений; его приоритетность на уровне сайта), чтобы поисковые системы могли более грамотно сканировать этот сайт.

Общее число sitemap.xml на сайте не должно превышать 1000, при этом число записей (урлов) в каждом не должно превышать 50 000 штук.

Если необходимо перечислить более 50 000 URL-адресов, следует создать несколько файлов Sitemap.

Карту сайта можно сжать gzip архиватором для уменьшения его размера. Но объем каждого сайтмапа в развернутом (разархивированном) виде не должен превышать 10 мегабайт.

Карта сайта не обязательно должна быть в виде xml файла. Протокол допускает генерацию карты в виде синдикации (RSS или Atom) либо в виде простого текстового файла с построчным перечислением URL. Но такие “карты сайта” либо не включают в себя все URL сайта (в случае с синдикацией), либо не несут дополнительную важную информацию (дата и время модификации контента страниц), собственно ради которой и используют в SEO карты сайта.

Предоставляя отметку времени последнего изменения <lastmod>, Вы позволяете сканерам поисковой системы извлекать только часть файлов Sitemap в индексе, то есть сканер может извлекать только те файлы (страницы) сайта, которые были изменены после определенной даты. Этот механизм частичного извлечения файлов из Sitemap.xml позволяет быстро обнаруживать новые URL на сайтах больших размеров. Кроме того это позволяет снизить нагрузку как на сервер, так и на краулер поисковой системы. А последнее они (поисковые системы) крайне любят.

Сочетание карты сайта с robots.txt и метатегами robots

Инструкции sitemap.xml, robots.txt и метатегов robots при правильном их использовании должны дополнять друг друга. Существуют три важнейших правила взаимодействия этих инструкций:

  • sitemap.xml, robots.txt и метатеги robots не должны противоречить друг другу;
  • все страницы, исключенные (заблокированные) в robots.txt и метатегами robots, должны быть исключены также из sitemap.xml;
  • все индексируемые страницы, разрешенные в robots.txt, должны содержаться в sitemap.xml

Исключения из трех правил

Есть и исключения из этих трех правил. И, как всегда, они связаны со страницами пагинации. Начиная со второй и далее страницы пагинации, мы прописываем noindex,follow в метатегах robots, при этом в robots.txt страницы пагинации не закрыты от индексирования.

В этом случае, некоторые оптимизаторы рекомендуют добавлять в sitemap.xml все страницы пагинации, чтобы ссылки с них могли переиндексироваться.

Дату и время изменения страницы ставить равную дате и времени изменения главной (первой, основной странице) страницы каталога. В принципе, с этим можно согласиться.

Оптимизаторы старой школы советуют добавлять в файл sitemap.xls только  непроиндексированные или изменившиеся страницы. Страницы, попавшие в индекс следует удалять из сайтмапа. А вот с этим мнением согласиться уже сложней. При наличии поля lastmod и его правильном заполнении, никакой нужды в таких вот изысках нет.

Основные проблемы при использовании sitemap.xml

При выполнении аудитов сторонних сайтов, мне наиболее часто встречались следующие ошибки:

  1. Несоответствие sitemap.xml страницам сайта, устаревший сайтмап. Эта проблема возникает, когда сайтмап генерируется не динамически, а эпизодически, запуском какой то службы в CMS, а то и сторонними сервисами. При этом возникает масса мертвых страниц, отдающих 404 ошибку (это если страницу физически удалили или перенесли в другое место, сменили адрес URL). Кроме того, новые страницы индексируются значительно медленнее, ибо не находятся в sitemap.xml.
  2. Следующая ошибка – неверная структура sitemap.xml. Эта ошибка возникает, как правило, на «самописных» CMS или при использовании неверных плагинов к популярной CMS. При этом генерируется файл sitemap.xml с нарушением структуры, описанной протоколом.
  3. Модификация этой ошибки – неверная работа с датой изменения записи. С точки зрения протокола – это не ошибка, так как поле lastmod не является обязательным. С точки зрения SEO и поисковых систем, отсутствие правильного значения в этом поле (совпадающее с непосредственным изменением контента) – полностью нивелирует значимость всего файла sitemap.xml. Как было сказано выше, ПС будут переиндексировать те страницы, поле lastmod которых изменилось.Что произойдет, если это поле меняется одновременно у всех записей (страниц) сайта. То есть дата модификации одинакова у всех файлов сайта. Скорее всего, ПС не будут обращать внимание на sitemap и сайт будет переиндексироваться обычным способом, при этом глубоко расположенные страницы либо не переиндексируются вовсе, либо будут переиндексироваться очень долго.Итак, Необходимо или вовсе не использовать поле lastmod (что плохо), либо ставить дату последнего значимого изменения страницы, например, когда поменялась цена или товар закончился или изменилось описание.
  4. Следующая группа встречаемых ошибок – логические, вызваны нарушением трех правил о сочетании robots.txt и sitemap.xml. В этом случае можно наблюдать постоянное попадание страницы в индекс и немедленный вылет оттуда. Однако, это не будет наблюдаться при наличии метатега noindex и записи в Sitemap.xml. В этом случае краулер (робот, паук ПС), зашедший на страницу индексировать её не будет.
  5. Ну и последняя ошибка, часто встречающаяся на сайтах – наличие “осиротевших страниц”. Это такие страницы, на которые стоит ссылка из sitemap, но нет ни одной прямой ссылки с любой из страниц сайта. Часто это связано с тем, что страницы были удалены “логически” (например в WordPress помещены в корзину), а не физически. Это так же наблюдается на сайтах, где доступ к карточкам товаров сделано на скриптах и фильтрах способом, который не позволяет проиндексировать результаты работ этих скриптов. Возможны и иные причины возникновения таких страниц-сирот. Все это снижает доверие поисковых систем к сайту и является негативным сигналом ранжирования.

Согласно протокола, после изменения сайтмапа, можно перепинговать поисковые системы. Для этого нужно создать запрос следующего вида:

<searchengine_URL>/ping?sitemap=sitemap_url

Обязательно добавляйте сайтмапы в вебмастера и проверяйте их на серьезные ошибки.

0

Robots.txt для сайта

Robots.txt – служебный файл, который находится в корневом каталоге сайта и необходим, чтобы указывать поисковым системам, как работать с вашим сайтом. Когда краулер приходит на хостинг, файл robots.txt является одним из первых документов, к которому он обращается. Не смотря на то, что robots.txt есть практически у каждого сайта, проводимые мной аудиты ваших сайтов показывают, что у четверти из них robots настроен неверно, что приводит к самым печальным последствиям.

Далее →

8

Как подготовиться к Mobile-first индексу

Уже совсем скоро Google запустит в полном объеме свой Mobile-first индекс. Индексирование Mobile-first означает, что большинство факторов ранжирования группы on-page и on-site (т.е. зависящие как от контента сайта страницы, так и всего сайта в целом) теперь будут вычисляться по мобильной версии сайта, запоминая в кеше и используя именно мобильную (а не десктопную) версию. Я уже рассказывал как это негативно повлияет на сайты и выдачу в целом, теперь давайте изучим как подготовиться к Mobile-first индексу, чтобы молниеносно не просесть на десятки позиций в выдаче. Далее →

0

Голосовой поиск и SEO оптимизация сайта под него в 2018 году

Голосовой поиск – это наименее изученная область в SEO оптимизации сайтов. И это очень удивительно. На сегодняшний день более 50% запросов в ПС поступает с мобильных устройств. При этом около 20% этих запросов составляют именно запросы, задаваемые голосом. Следовательно, как минимум 10% всех запросов к Поисковым системам – это именно голосовые запросы.

Тенденция развития мобильных платформ указывает на то, что через три года более половины запросов будут задаваться именно голосом. Следовательно, уже сейчас нужно стремиться к тому, чтобы понять, какие именно факторы оказывают влияние на результаты голосового поиска и как можно доминировать в результатах выдачи голосового поиска.
Далее →

5

Повторная оптимизация контента

Составной частью аудита контента является техника повторной оптимизации контента. Эта мощнейшая стратегия постоянного роста качества сайта основывается на поиске и устранении слабых мест в уже опубликованном контенте. Применение повторной оптимизации контента приводит к значительному приросту посетителей, улучшению юзабилити сайта, поведенческих факторов и позиций в органической выдаче. В свою очередь повторная оптимизация контента принадлежит к области внутренней оптимизации сайта и не требует значительных затрат времени и финансов. Далее →

16

Лишние теги Bold и Strong вредят ранжированию

Адептами старой SEO школы рекомендовалось заключать ключевые слова на странице в тэги Strong и  Bold. Как это не удивительно, многие по прежнему придерживаются старой тактики продвижения и безбоязненно размещают ключи в полужирном выделении.  Сегодня мы рассмотрим пару экспериментов, которые покажут неприятные последствия этой тактики. Далее →

5

Аудит контента и обрезка ядовитого содержания.

Долгое время в среде оптимизаторов была модной стратегия продвижения контентом. Сама по себе стратегия правильная. Подкачало её исполнение.

Смотрите, что удумали оптимизаторы. Они делают несколько качественных страниц на сайте, размещают на них лендинги (страницы-конвертации). Потом они прикручивают к сайту блог и наполняют его низкосортными дешевыми статьями, каждая из которых была заточена под низкочастотник.

В статьи иногда внедряли внутреннюю перелинковку, а зачастую обходились и без нее. В результате этой стратегии получается сайт, переполненный низкосортным балластом, тянущим его на дно выдачи. Далее →

21

48-й способ увеличить трафик на сайте

Сегодня мы поговорим об очередном методе, позволяющем подтолкнуть сайт в направление ТОПов. Особенно он подходит тем, кто несмотря ни на какие ухищрения не может подстегнуть свой проект и выжать из него приемлемый трафик. Но и как все остальное в SEO, данный метод не панацея и необходимо применять его в совокупности с иными формами продвижения.

Итак, мы будем воздействовать на позиции сайта массовой закупкой комментариев на продвигаемом сайте. Повторюсь. Этот метод должен дополнять иные методы оптимизации сайта, а не быть единственно применяемым. Далее →

6

Исходящие ссылки как фактор ранжирования

Исходящие ссылки – это очень интересный фактор ранжирования, один из тех, который может контролировать сам владелец сайта. Внешние ссылки десятилетиями окружались мифами и легендами. В эпоху PR – метрик крайне рекомендовалось удалять ссылки с сайта, дабы живительный ссылочный сок не утекал с проекта. При этом забывался главный постулат, что сам Интернет по своей сути есть набор документов, связанных гиперссылками. Давайте посмотрим, как с этим обстоит дело нынче.
Далее →

14

Контент как фактор ранжирования

День добрый, друзья. Сегодня хотелось бы поговорить на такую избитую тему, как контент сайта.  Многие представляют себе сайт как нечто единое, целое, литое, а посему безбоязненно оперируют и кичатся всевозможными пузомерками, которые к ранжированию имеют самое отдаленное отношение. На самом деле, с самого момента зарождения Интернета и по сей день, минимальной единицей был и есть документ – то есть единичная страница сайта.
Далее →

0
Page 1 из 2 12