SEO настройки сайта 2019
Согласно статистике, неправильное оформление или прямое игнорирование настроек сайта занимает первые места в списке критических ошибок СЕО. Открытые для индексации зеркала сайта, незаполненные заголовки и описания страниц, ошибки robots.txt и отсутствие ссылки на sitemap.xml – все это базовые критерии, о которых ни в коем случае нельзя забывать. Иногда достаточно небольших корректировок, чтобы сайт поднялся в поисковой выдаче в ТОП 10.
СЕО-работа с метатегами
Все рабочие SEO-настройки сайта можно разделить на 2 категории:
-
общие – настройки для всего ресурса;
-
постраничные – индивидуальные для конкретных страниц.
Основную массу этих настроек составляет работа с метатегами.
Под мета-тегами понимают любые HTML-теги “meta”, которые выводят техническую информацию о странице сайта. Располагаются они, как правило, внутри элемента head. Это так называемые «необязательные» атрибуты, которые могут включать данные по странице – ее описание, заголовок, ключевые слова, инструкции для поисковых роботов, ссылки на авторство и прочую информацию «не для посетителей». И если какие-то из них можно со спокойной душой пропустить, то игнорирование тегов title, description, robots или canonical (в некоторых случаях) способно вызвать серьезные проблемы с индексацией и ранжированием.
Прописываем Title и Description
Заголовок и описание страницы еще называют «королями метатегов». Именно эти SEO-настройки знакомят посетителя с сайтом в процессе поиска и больше других влияют на продвижение по ключевым запросам. Метаданные должны строго соответствовать теме ресурса и основному семантическому ядру, то есть содержать ключевые слова, по которым посетители будут вас искать. Грамотно оформленные метатеги способны заметно повысить позиции в поисковой выдаче.
Title, или заголовок – это небольшой текст на 30-70 символов, который дает поисковой системе общее представление о том, что содержится на странице. Именно его мы видим в качестве заглавной ссылки в составе сниппета, когда просматриваем страницу выдачи. Не стоит путать этот тег с тегом H1, который отражается в адресной строке при переходе на сайт. Они не должны совпадать.
Description, или описание – это текст на 150-200 знаков, который нередко подтягивается в сниппет. Однако поисковая система может посчитать его недостаточно релевантным и использовать для этого подходящие участки контента. В любом случае – выводят description в сниппете или нет – он оказывает прямое влияние на ранжирование. На самом сайте описание можно увидеть только заглянув в программный код. Там он отображается, как правило, вверху, внутри контейнера head.
Для составления этих тегов следует приложить определенные усилия – текст должен быть сжатым, релевантным содержанию страницы, включать соответствующие теме ключевые слова (но без злоупотреблений), быть уникальным, читабельным и привлекать внимание посетителя.
На заметку! Keywords, или ключи – это ключевые слова, релевантные данной странице. Метатег перестал быть обязательным еще в начале 2000-х годов, с тех пор как поисковые системы перестали обращать на него внимание. Однако некоторые вебмастера, чтобы исключить очередной «сюрприз» при обновлении алгоритма, иногда указывают пару-тройку релевантных запросов для основных страниц сайта.
Большинство известных CMS имеет специальные поля-шаблоны для заполнения базовых SEO-настроек, куда легко можно вписать заголовок и описание. При необходимости, они легко проставляются в html-коде вручную.
Примеры написания метаданных
Приведем образцы заполнения тегов для страниц сайта, занимающегося продажей мебели.
Пример 1
Title
<title>Купить детскую мебель в Москве, интернет-магазин ЭКОМебель.рф</title>
Description
<meta name=”description” content=«Мебель для детской: огромный выбор моделей по ценам производителя. Заказывайте мебель в интернет-магазине ЭКОМебель с доставкой по России и Москве!»/>
Пример 2
Title
<title>Мебель из массива сосны в Москве – купить недорого на ЭКОМебель.рф</title>
Description
<meta name=”description” content=«Купить мебель из массива в интернет-магазине ЭКОМебель с доставкой. Ознакомьтесь с ценами, отзывами покупателей, подробными фото с описанием моделей.»/>
Не прописанные или неправильно прописанные SEO-настройки способны «подложить свинью» даже самому успешному сайту.
Как собрать «робота»?
Файл и тег robots содержат инструкции для корректной индексации страниц сайта поисковыми машинами. Специалисты в шутку называют их конституцией для ботов. Достаточно убрать robots.txt, и поисковый робот начнет индексировать все, что сам захочет. Особенно его привлекают зеркала сайта, системные каталоги, корзина и т.п.
Может случиться и так, что неправильно настроенный файл приведет к полному исчезновению сайта из поиска.
Тег robots находится неподалеку от заголовка и описания страницы, все в том же контейнере <head>…</head>.
Выглядит он примерно так:
<meta name="robots" content="index, nofollow" />
Если необходимо прописать поведение для ботов конкретной поисковой системы, изменяют атрибуты name:
-
для Яндекса – “yandex”;
-
для Google – “google” или, как вариант, “googlebot”.
и content:
-
all – разрешение на индексацию всего контента;
-
index, follow – одновременно указанные, они аналогичны all;
-
noindex – весь контент на странице закрыт для индекса;
-
nofollow – закрыт переход по ссылкам;
-
none – страница закрыта для индексации и перехода по ссылкам;
-
noindex, nofollow – аналогично none;
-
noarchive – скрыть в сниппете ссылку на сохраненную в кеше копию;
-
noyaca – запрет на использование описания с Яндекс.Каталога.
Файл robots.txt
Если тег всего лишь показывает, что индексировать, а что нет, то SEO-настройками файла можно задать, как именно и даже когда именно это делать. Для разных поисковых машин правила действуют по-разному, и это стоит учитывать при заполнении директив.
На заметку! Чтобы снизить нагрузку на сайт следует исключить к индексированию все ненужные для поиска страницы: формы заказа, личный кабинет, корзину и т.п. Отключение всех JS и CSS возможно только для второстепенных поисковиков. Роботам Яндекса и Гугла они важны для оценки юзабилити и последующего ранжирования.
Основные директивы robots.txt:
-
User-agent – задает «имена» ботов, для которых действуют правила. В пределах поисковой системы их может быть не один десяток, и каждый отвечает за определенные действия, например, YandexBot – универсальный бот Яндекса, а YandexMedia работает только с мультимедиа.
-
Disallow – дает запрет к индексу контента.
-
Allow – принудительно открывает доступ к индексу.
-
Sitemap – задает адрес положения файла с картой сайта.
-
Host – позволяет выбрать и указать главное зеркало (обязательно с https://), но действует только на ботов Яндекса и Мейл-ру. Директиву прописывают в файле 1 раз!
-
Crawl-delay – устанавливает временные промежутки между обращением ботов к сайту для скачивания. Настройка директивы помогает снизить нагрузку на сервер за счет замедления активности ботов.
-
Clean-param – предупреждает робота не индексировать на сайте изменения определенных динамических параметров (UTM-метки, идентификаторы сессий и т.п.).
Если вы хотите закрыть весь сайт от индексации, достаточно прописать инструкцию:
User-agent: *
Disallow: /
Однако это решение для особых случаев. Для нормальной работы подобная настройка будет неправильной – сайт перестанет индексироваться. Среди других возможных ошибок:
-
полное отсутствие файла;
-
указаны только некоторые директивы, без детальной проработки;
-
остались открыты страницы с UTM-метками и идентификаторами сессий;
-
многократное прописывание «хоста», а также использование в данной директиве http:// вместо https://;
-
противоречивые команды от разных директив;
-
неверно указан путь к карте сайта или выбрано не то зеркало.
Созданный и отредактированный файл следует разместить в корневом каталоге по адресу site.ru/robots.txt.
Удаляем дубли с помощью тега Canonical
При наличии повторяющихся страниц, например, когда один и тот же товар попадает в 2 разные категории, следует выбрать одну из них в качестве «канонической» и прописать в виде ссылки на обеих страницах-дублях:
<link rel="canonical" href="http://site.ru/nazvanie-stranitsy" />
Тег располагается все в том же контейнере <head>…</head>, в любом его месте.
Это лишь краткий список основных СЕО-настроек сайта для повышения его позиций в поисковой выдаче. Детальные проработки мелочей могут продолжаться достаточно долго, ведь алгоритмы меняются и появляются новые конкуренты.