Базовая SEO-оптимизация
Сделали сайт, разместили в «Спринтхост», а в поисковой выдаче выдается на 100500 странице. Что делать? Разберемся вместе с коллегами из pr-cy.ru.
Алгоритм базовой оптимизации
Если нет денюжек на рекламу силами агрегаторов по типу Яндекс и Google, то на помощь приходит SEO, или в простонародье поисковая оптимизация сайта. Про SEO сейчас многое написано, это очень известная история для продвижения сайтов, но даже такого количества написанного не хватит, чтобы полностью раскрыть тему SEO. В том числе и эта статья описывает лишь верхушку айсберга.
В чем заключается SEO? Чтобы попасть на сайт, его нужно найти в интернете. Потенциальные посетители и клиенты не знают ни названия сайта, ни компании — ничего, что могло бы напрямую привести их на веб-ресурс. У них есть лишь набор потребностей, которые они вводят в поисковике.
Например, человек ищет хостинг, соответственно, он вводит в строку «хостинг», приправляя этот запрос различными эпитетами и дополнениями по типу «качественный», «недорогой», «с отзывчивой техподдержкой» и т.д. Поисковая система выдаст список ресурсов, подходящих под этот запрос. В Яндексе, например, сверху будут идти рекламные ссылки, за вывод которых компании заплатили системе — они будут всегда сверху, это неорганическая выдача. Ниже будут показываться те сайты, которые наиболее подходят под запрос.
Поисковые роботы в прямом смысле просматривают каждую страничку каждого сайта, чтобы определить их содержимое и затем вывести под подходящий запрос. Соответственно, сайт хостинг-провайдера должен иметь в себе некие триггеры и «крючочки», за которые роботы и ухватятся. Грубо говоря, SEO-оптимизация занимается созданием этих триггеров и «крючочков».
Что нужно для базовой SEO-оптимизации?
Сделаем чек-лист, чтобы было проще ориентироваться:
- Аудит;
- Сервисы аналитики;
- Техническая оптимизация;
- Работа с текстом, наполнением сайта и исправление ошибок.
В первом случае анализируется все, что есть перед началом оптимизации. Подразумевается, что у вас уже имеется сайт, который нужно продвигать — заниматься SEO без сайта то же самое, что и играть в футбол без мяча :)
У вас есть готовый сайт. На нем нужно проанализировать качество контента, проверить ошибки (грамматика, битые ссылки, несоответствия), скорость прогрузки страниц и их индексацию.
Индексация — это добавление информации о сайте и страницах в поисковую систему. Она проводится роботами этих систем.
Подключите Яндекс.Метрику и Google Analytics, чтобы анализировать поведение пользователей и смотреть, по каким фразам они находят сайт. Яндекс.Вебмастер и Google Search Console нужны для работы с индексацией страниц, проверок ошибок, оптимизации.
Работа над контентом является важной составляющей оптимизации. Заголовки должны быть релевантны запросам пользователей, описания с разными, но близкими по смыслу словосочетаниями, а сам текст должен совпадать с тем, что ищут в интернете. То есть если у вас сайт — это магазин по продаже плюшевых игрушек, то и описание должно быть связано с этой темой, нужно использовать заголовки и контент, которые поисковые роботы смогут соотнести с тем, что люди вбивают в поисковике.
Под технической оптимизацией подразумевается работа с sitemap, robots.txt. Также нужно убрать битые ссылки и дубли страниц — роботы такое не любят и понижают сайт в выдаче.
Robots.txt и sitemap
robots.txt — текстовый файл, в котором указаны правила индексации сайта. С его помощью можно регулировать частоту обращений поисковых роботов, запретить индексирование отдельных страниц или всего сайта.
Сам файл нужно разместить в корневой директории сайта и прописать в нем необходимые правила.
Здесь упомянем основные директивы:
- User-agent
В первой строке нужно указать правило User-agent. Оно определяет тех роботов, которым можно индексировать сайт.
User-agent: Yandex — только для роботов Яндекса;
User-agent: * — для всех существующих роботов.
- Disallow, Allow
Эти директивы ограничивают доступ роботам к определенным страницам. Например, можно закрыть административную часть сайта.
Disallow запрещает индексацию, Allow разрешает индексировать отдельные ссылки внутри запрещенных.
Allow: /public
Disallow: /
По этому примеру на сайте ничего нельзя индексировать, кроме страниц вида domain.ru/public
Директивы работают со специальными символами «*» и «$». Символ «*» задает последовательность из неограниченного количества символов (0 и более):
Disallow: /catalog/*.html — запрет доступа ко всем страницам из раздела catalog с расширением .html.
Символ «$» жестко указывает на конец правила:
Disallow: /catalog/boxs$ — запрет индексирования страницы domain.ru/catalog/boxs , но, например, доступ к domain.ru/catalog/boxs.html роботы смогут получить.
- Clean-param
Порой в ссылках содержатся параметры (идентификаторы сессий, пользователей), которые не влияют на содержимое страницы.
Например, у вас есть каталог товаров, которые можно отфильтровать. После этого получится следующий набор ссылок:
domain.ru/catalog
domain.ru/catalog? =1
domain.ru/catalog?product=2
Первая ссылка включает в себя весь каталог продуктов, поэтому индексация этой же страницы с параметрами не нужна. Чтобы убрать лишние ссылки, используйте это правило:
Clean-param: product /catalog
Указать несколько параметров можно через символ «&»:
Clean-param: product&price /catalog
Clean-param ускоряет индексацию и снижает нагрузку на сервер.
- Sitemap
Sitemap указывает роботу расположение карты сайта:
Sitemap: http://domain.ru/sitemap.xml
Также нужно указать ссылку на Sitemap в вебмастере Яндекса и Google.
- Можно вообще отключить индексацию сайта, указав правила:
User-agent: *
Disallow: /
При составлении файла robots.txt желательно ознакомиться со справочной информацией поисковиков, так как некоторые правила могут не поддерживаться или игнорироваться роботами. Часть директив можно указать в вебмастере, например, ограничить количество запросов к сайту.
Перейдем к sitemap. Он нужен, чтобы робот быстрее распознал структуру сайта и быстрее провел индексацию страниц. Есть два несложных способа автоматического создания карты сайта: генераторы sitemap и плагины в CMS.
В интернете можно найти бесплатные генераторы с различными настройками. Но они подойдут для ресурсов, которые редко обновляются — карту нужно будет генерировать заново каждый раз при создании новых страниц.
Для тех, кто пользуется CMS, есть возможность установить плагин, который создаст и будет автоматически обновлять sitemap. Например, для Wordpress подойдет плагин Google XML Sitemaps, для Joomla — Sitemap Generator, в 1С-Битрикс такой компонент включен по умолчанию.
После добавления карты должно пройти время, в течение которого сайт будет проиндексирован поисковиками. Сам файл также должен быть расположен в корневой директории сайта.
В Панели управления Спринтхост с файлами robots и sitemap очень удобно работать через Файловый менеджер.
Битые ссылки и теги
Битые ссылки появляются, когда начинаешь работать со ссылочной массой. Например, на каком-нибудь сайте или в соцсети есть ссылка на раздел вашего сайта. В какой-то момент вы решили обновить раздел или вообще его удалить, но ссылка на него осталась. Когда пользователь переходит по ней, то получает ошибку. Это плохо как для SEO, так и для бизнеса в целом, так как пользователь не станет разбираться в причинах ошибки и просто уйдет к конкуренту.
Кроме того, важно прописывать теги на страницах. Они добавляются в раздел HTML-кода.
Перечислим основные метатеги:
- Description — описание сайта в результатах поиска;
- Keywords — ключевые слова, которые помогают определить соответствие сайта поисковым запросам;
- Robots — инструкции по сканированию и индексированию страниц роботами. Вместо robots можно прописать yandex или googlebot, чтобы инструкцию понимал робот конкретной поисковой системы;
- Viewport — нужен, если у вас есть адаптация на мобильные устройства;
- Content-Type — указывает на тип контента.
У Google и Яндекс прописаны рекомендации по заполнению тегов, советуем почитать.
Поисковые системы отдают предпочтение адаптированным сайтам с быстрой загрузкой контента. Если ваш сайт медленно грузится, картинки не влезают в экран, а шрифт такой маленький, что и с лупой не разглядеть, то вы вряд ли попадете на первые строчки выдачи. Такие вещи нужно учитывать при создании сайта и его доработке.
Небольшие дополнительные советы
Установите SSL-сертификат и переезжайте на HTTPS. В Google HTTPS уже становится стандартом. Кроме того, незащищенный сайт обозначается, как, ого!, незащищенный. Это тоже может повлиять на поисковую выдачу. Не забудьте при переезде изменить информацию в Яндекс.Вебмастере, чтобы не потерять страницы в индексе. Для Вебмастера сайты на http и https — разные ресурсы.
Адаптируйте сайт под разные устройства. Смартфоны уже давно заняли головы и руки пользователей, поэтому нужно подумать об адаптации дизайна страничек под мобильные версии. За это вам скажут спасибо и пользователи, и роботы, которые сразу поднимут сайт в выдаче.
У SEO-самурая нет цели, только путь
Чтобы базово настроить поисковую выдачу сайта, не нужно много сил и умений, но нужно терпение, усидчивость и время. Даже идеально настроенный сайт может не выводиться в топы, поэтому нужно постоянно «докручивать» сайт, анализировать поведение пользователей, выявлять ошибки и т.д. То есть, SEO-оптимизация — это процесс, а не какое-то законченное действие. Также советуем внимательно прочитать документации Яндекса и Google.
После того как проведете базовую SEO-оптимизацию и анализ результатов, можно задуматься над более глубоким SEO. Здесь уже стоит обратиться к специалистам, так как нюансов становится слишком много и без помощи будет сложно и долго разбираться. Главное продолжайте заниматься SEO, так как вложения в него хорошо окупятся в будущем.