Базовая SEO-оптимизация

Сделали сайт, разместили в «Спринтхост», а в поисковой выдаче выдается на 100500 странице. Что делать? Разберемся вместе с коллегами из pr-cy.ru.

Базовая SEO-оптимизация

Алгоритм базовой оптимизации

Если нет денюжек на рекламу силами агрегаторов по типу Яндекс и Google, то на помощь приходит SEO, или в простонародье поисковая оптимизация сайта. Про SEO сейчас многое написано, это очень известная история для продвижения сайтов, но даже такого количества написанного не хватит, чтобы полностью раскрыть тему SEO. В том числе и эта статья описывает лишь верхушку айсберга.

В чем заключается SEO? Чтобы попасть на сайт, его нужно найти в интернете. Потенциальные посетители и клиенты не знают ни названия сайта, ни компании — ничего, что могло бы напрямую привести их на веб-ресурс. У них есть лишь набор потребностей, которые они вводят в поисковике.

Например, человек ищет хостинг, соответственно, он вводит в строку «хостинг», приправляя этот запрос различными эпитетами и дополнениями по типу «качественный», «недорогой», «с отзывчивой техподдержкой» и т.д. Поисковая система выдаст список ресурсов, подходящих под этот запрос. В Яндексе, например, сверху будут идти рекламные ссылки, за вывод которых компании заплатили системе — они будут всегда сверху, это неорганическая выдача. Ниже будут показываться те сайты, которые наиболее подходят под запрос.

Поисковые роботы в прямом смысле просматривают каждую страничку каждого сайта, чтобы определить их содержимое и затем вывести под подходящий запрос. Соответственно, сайт хостинг-провайдера должен иметь в себе некие триггеры и «крючочки», за которые роботы и ухватятся. Грубо говоря, SEO-оптимизация занимается созданием этих триггеров и «крючочков».

Что нужно для базовой SEO-оптимизации?

Сделаем чек-лист, чтобы было проще ориентироваться:

  • Аудит;
  • Сервисы аналитики;
  • Техническая оптимизация;
  • Работа с текстом, наполнением сайта и исправление ошибок.

В первом случае анализируется все, что есть перед началом оптимизации. Подразумевается, что у вас уже имеется сайт, который нужно продвигать — заниматься SEO без сайта то же самое, что и играть в футбол без мяча :)

У вас есть готовый сайт. На нем нужно проанализировать качество контента, проверить ошибки (грамматика, битые ссылки, несоответствия), скорость прогрузки страниц и их индексацию.

Индексация — это добавление информации о сайте и страницах в поисковую систему. Она проводится роботами этих систем.

Подключите Яндекс.Метрику и Google Analytics, чтобы анализировать поведение пользователей и смотреть, по каким фразам они находят сайт. Яндекс.Вебмастер и Google Search Console нужны для работы с индексацией страниц, проверок ошибок, оптимизации.

Работа над контентом является важной составляющей оптимизации. Заголовки должны быть релевантны запросам пользователей, описания с разными, но близкими по смыслу словосочетаниями, а сам текст должен совпадать с тем, что ищут в интернете. То есть если у вас сайт — это магазин по продаже плюшевых игрушек, то и описание должно быть связано с этой темой, нужно использовать заголовки и контент, которые поисковые роботы смогут соотнести с тем, что люди вбивают в поисковике.

Под технической оптимизацией подразумевается работа с sitemap, robots.txt. Также нужно убрать битые ссылки и дубли страниц — роботы такое не любят и понижают сайт в выдаче.

Robots.txt и sitemap

robots.txt — текстовый файл, в котором указаны правила индексации сайта. С его помощью можно регулировать частоту обращений поисковых роботов, запретить индексирование отдельных страниц или всего сайта.

Сам файл нужно разместить в корневой директории сайта и прописать в нем необходимые правила.

Здесь упомянем основные директивы:

  • User-agent

В первой строке нужно указать правило User-agent. Оно определяет тех роботов, которым можно индексировать сайт.

User-agent: Yandex — только для роботов Яндекса;

User-agent: * — для всех существующих роботов.

  • Disallow, Allow

Эти директивы ограничивают доступ роботам к определенным страницам. Например, можно закрыть административную часть сайта.

Disallow запрещает индексацию, Allow разрешает индексировать отдельные ссылки внутри запрещенных.

Allow: /public

Disallow: /

По этому примеру на сайте ничего нельзя индексировать, кроме страниц вида domain.ru/public

Директивы работают со специальными символами «*» и «$». Символ «*» задает последовательность из неограниченного количества символов (0 и более):

Disallow: /catalog/*.html — запрет доступа ко всем страницам из раздела catalog с расширением .html.

Символ «$» жестко указывает на конец правила:

Disallow: /catalog/boxs$ — запрет индексирования страницы domain.ru/catalog/boxs , но, например, доступ к domain.ru/catalog/boxs.html роботы смогут получить.

  • Clean-param

Порой в ссылках содержатся параметры (идентификаторы сессий, пользователей), которые не влияют на содержимое страницы.

Например, у вас есть каталог товаров, которые можно отфильтровать. После этого получится следующий набор ссылок:

domain.ru/catalog

domain.ru/catalog? =1

domain.ru/catalog?product=2

Первая ссылка включает в себя весь каталог продуктов, поэтому индексация этой же страницы с параметрами не нужна. Чтобы убрать лишние ссылки, используйте это правило:

Clean-param: product /catalog

Указать несколько параметров можно через символ «&»:

Clean-param: product&price /catalog

Clean-param ускоряет индексацию и снижает нагрузку на сервер.

  • Sitemap

Sitemap указывает роботу расположение карты сайта:

Sitemap: http://domain.ru/sitemap.xml

Также нужно указать ссылку на Sitemap в вебмастере Яндекса и Google.

  • Можно вообще отключить индексацию сайта, указав правила:

User-agent: *

Disallow: /

При составлении файла robots.txt желательно ознакомиться со справочной информацией поисковиков, так как некоторые правила могут не поддерживаться или игнорироваться роботами. Часть директив можно указать в вебмастере, например, ограничить количество запросов к сайту.

Перейдем к sitemap. Он нужен, чтобы робот быстрее распознал структуру сайта и быстрее провел индексацию страниц. Есть два несложных способа автоматического создания карты сайта: генераторы sitemap и плагины в CMS.

В интернете можно найти бесплатные генераторы с различными настройками. Но они подойдут для ресурсов, которые редко обновляются — карту нужно будет генерировать заново каждый раз при создании новых страниц.

Для тех, кто пользуется CMS, есть возможность установить плагин, который создаст и будет автоматически обновлять sitemap. Например, для Wordpress подойдет плагин Google XML Sitemaps, для Joomla — Sitemap Generator, в 1С-Битрикс такой компонент включен по умолчанию.

После добавления карты должно пройти время, в течение которого сайт будет проиндексирован поисковиками. Сам файл также должен быть расположен в корневой директории сайта.

В Панели управления Спринтхост с файлами robots и sitemap очень удобно работать через Файловый менеджер.

Битые ссылки и теги

Битые ссылки появляются, когда начинаешь работать со ссылочной массой. Например, на каком-нибудь сайте или в соцсети есть ссылка на раздел вашего сайта. В какой-то момент вы решили обновить раздел или вообще его удалить, но ссылка на него осталась. Когда пользователь переходит по ней, то получает ошибку. Это плохо как для SEO, так и для бизнеса в целом, так как пользователь не станет разбираться в причинах ошибки и просто уйдет к конкуренту.

Кроме того, важно прописывать теги на страницах. Они добавляются в раздел HTML-кода.

Перечислим основные метатеги:

  • Description — описание сайта в результатах поиска;
  • Keywords — ключевые слова, которые помогают определить соответствие сайта поисковым запросам;
  • Robots — инструкции по сканированию и индексированию страниц роботами. Вместо robots можно прописать yandex или googlebot, чтобы инструкцию понимал робот конкретной поисковой системы;
  • Viewport — нужен, если у вас есть адаптация на мобильные устройства;
  • Content-Type — указывает на тип контента.

У Google и Яндекс прописаны рекомендации по заполнению тегов, советуем почитать.

Поисковые системы отдают предпочтение адаптированным сайтам с быстрой загрузкой контента. Если ваш сайт медленно грузится, картинки не влезают в экран, а шрифт такой маленький, что и с лупой не разглядеть, то вы вряд ли попадете на первые строчки выдачи. Такие вещи нужно учитывать при создании сайта и его доработке.

Небольшие дополнительные советы

Установите SSL-сертификат и переезжайте на HTTPS. В Google HTTPS уже становится стандартом. Кроме того, незащищенный сайт обозначается, как, ого!, незащищенный. Это тоже может повлиять на поисковую выдачу. Не забудьте при переезде изменить информацию в Яндекс.Вебмастере, чтобы не потерять страницы в индексе. Для Вебмастера сайты на http и https — разные ресурсы.

Адаптируйте сайт под разные устройства. Смартфоны уже давно заняли головы и руки пользователей, поэтому нужно подумать об адаптации дизайна страничек под мобильные версии. За это вам скажут спасибо и пользователи, и роботы, которые сразу поднимут сайт в выдаче.

У SEO-самурая нет цели, только путь

Чтобы базово настроить поисковую выдачу сайта, не нужно много сил и умений, но нужно терпение, усидчивость и время. Даже идеально настроенный сайт может не выводиться в топы, поэтому нужно постоянно «докручивать» сайт, анализировать поведение пользователей, выявлять ошибки и т.д. То есть, SEO-оптимизация — это процесс, а не какое-то законченное действие. Также советуем внимательно прочитать документации Яндекса и Google.

После того как проведете базовую SEO-оптимизацию и анализ результатов, можно задуматься над более глубоким SEO. Здесь уже стоит обратиться к специалистам, так как нюансов становится слишком много и без помощи будет сложно и долго разбираться. Главное продолжайте заниматься SEO, так как вложения в него хорошо окупятся в будущем.

9
21 комментарий