Анализ конкурентов-лидеров: как повторить успех и попасть в топ поисковой выдачи
Увеличить трафик на сайте из поисковой выдачи без ботов и спама возможно, если заниматься SEO с умом, а не брать стандартные шаблоны. И первым делом, надо подглядеть, как все устроено у лидеров ниши (тот самый зыринг и тыринг). С вами команда Seobot. Расскажем, как мы проводим анализ конкурентов для SEO.
Содержание
- Что учитывать у конкурентов;
- Подсматриваем ключевые слова;
- Изучение сильных и слабых сторон конкурентов;
- Берем у конкурентов самое лучшее;
- Оцениваем технические параметры сайта;
- Структурируем и анализируем приоритет задач;
- Раскрываем секреты чужого ссылочного профиля;
- Грамотный анализ лидеров ниши — ключ к успеху собственного сайта.
Чтобы обогнать лучших, сначала научимся у них
Для эффективного продвижения проекта в Яндексе и Google необходимо изучить:
- Чем живет и как развивается изучаемая тематическая ниша.
- Какие сайты являются нашими прямыми конкурентами-лидерами.
- Почему эти сайты считаются наиболее успешными и популярными у аудитории.
Поэтому изучение конкурентов в SEO — важная и обязательная часть аналитики сайта. Оно позволяет понять, какую стратегию выбрали конкуренты для SEO-продвижения своих сайтов и какие эффективные SEO-решения применяют.
При анализе конкурентов выделяем 5 основных этапов:
- Подбор ключевых слов.
- Определение конкурентов-лидеров.
- Анализ контента.
- Оценка технических параметров сайта.
- Изучение ссылочного профиля.
Разберем каждый этап детально.
Подсматриваем ключевые слова у конкурентов
Запросы сайта определяем по следующему алгоритму:
1. Собираем ключи в ручном режиме в сервисе «Яндекс Вордстат»
Классический способ — собрать «верхушки» запросов или, как их еще называют, запросы «первого приближения», — это самые высокочастотные ключи. Достаточно собрать 15–20 вариантов.
Необходимо вбить наименование нашего исследуемого домена в поисковую строку главной страницы Keys. so и дождаться выдачи результатов. Выбирать поисковую систему на этом этапе не нужно, это можно сделать потом, при анализе выдачи.
Для общего сбора запросов мы всегда выбираем Москву в сервисах Яндекс и Google. Как и «Вордстат», Keys. so выдает запросы с базовой (общей) частотой, поэтому для анализа мы пользуемся базовой частотой.
Сервис достаточно быстро показывает результат:
Отсортировав выдачу, можно определить самые популярные запросы.
Также, Keys. so показывает конкурентов нашего сайта и популярные страницы — это пригодится в дальнейшем, как вспомогательная информация в определении SEO-стратегии нашего проекта и конкурентных.
3. Объединяем собранные ключи в Google Sheets.
Достаточно 15–20 частотных запросов. Для этого отсортируем по их по убыванию и заберем самые релевантные — их мы копируем и переносим в подготовленную таблицу Google Sheets.
Полученные запросы будем использовать в дальнейшей работе, чтобы определить конкурентов в топе.
Надо знать сильные и слабые места противника
Чтобы выявить лидеров в нише, используем инструменты Ahrefs, Semrush, Similarweb, Arsenkin Tools, Keys. so и другие.
Достаточно определить 3–5 конкурентов, чтобы не зарыться в анализ и не уйти от главной задачи — найти интересные SEO-решения, которые привлекут органический трафик на наш сайт.
Основные критерии выбора конкурентов-лидеров для анализа:
- Конкуренты по запросам в топ-10 и топ-50.
- Конкуренты по размеру органического трафика.
- Косвенные признаки (сервис Keys. so) — количество страниц, видимость ключевых слов, по охвату.
Полученные запросы вносим в сервис Arsenkin Tools.
Этот инструмент помогает быстро выгрузить топ-10 сайтов по заданным ключам в поисковых системах Яндекс и Google. Начинаем собирать конкурентов по запросам и заносить их в таблицу Google Sheets.
Обязательно нужно «почистить» результат выдачи:
- агрегаторы;
- маркетплейсы;
- каталоги;
- сервисы поисковых систем («Карты», «Маркет» и т. д.);
- конкуренты, известные благодаря своему бренду.
Например, сайт «М. Видео» и схожих компаний заходят в ТОП не из-за привлекательного оффера в сниппете, а благодаря узнаваемости бренда.
Далее поочередно вбиваем 10–15 ключевых слов из подготовленной таблицы в поисковые системы Google и Яндекс и смотрим, что выдают поисковики в топ-10. Если по какой-то причине сервис не «увидел» конкурента, то вносим этого конкурента в нашу таблицу.
Повторяя эти действия, мы постепенно «выследим» и соберем 10–15 конкурентов-лидеров. Потом занесем весь список конкурентов в сервис Keys. so на вкладку «Пакетный анализ». Он нам выдаст следующую таблицу:
Выгрузив отчет в таблицу, можно отсортировать данные и увидеть, кто конкурент нашего сайта по ключевым словам в топ-10 и топ-50.
Для удобства обработки переносим данные из выгруженной таблицы в подготовленную ранее таблицу Google Sheets. Получается структурированный массив данных, из которого выделяем конкурентов-лидеров по совпадению ключей в топах и косвенным признакам (количество страниц, по видимости, по охвату):
Поясним часть косвенных признаков.
1. Признак «по видимости»
Какое место в рейтинге сайтов, отсортированных по видимости, занимает этот домен. Чем меньше значение, тем выше сайт в списке и, чаще всего, тем больше у него поискового трафика. Подробнее, что такое видимость, читайте по ссылке.
2. Признак «по охвату»
Какое место занимает домен в рейтинге сайтов, отсортированных по значению «В топ 50» в порядке убывания. Чем меньше число, тем по большему количеству запросов сайт отображается в выдаче на позициях от 1 до 50.
Далее проверяем органический трафик по отобранным конкурентам. Для этого используем сервис Similarweb. Так как мы пользуемся бесплатной версией, вбивать конкурентов для проверки необходимо по одному.
Сервис выдает следующую информацию, где нас интересует цифра трафика за месяц:
Вносим полученные данные по трафику в таблицу. Должен получиться следующий массив данных, который отсортировываем по убыванию показателей:
Итогом наших исследований стали три конкурента-лидера по совпадению ключей в топах и по трафику. Эти данные мы заносим в сводный документ, который готовим для анализа конкурентов:
Мы провели определение конкурентов-лидеров нашей ниши, воспользовавшись сервисами и ручной выдачей из «Вордстата». Дополнительно проверили выдачу по запросам топ-10 в поисковых системах Яндекс и Google.
Статистический штурм: возьмем у конкурентов самое лучшее
Перечисленные выше этапы помогли нам собрать необходимые данные для дальнейшей работы с исследуемым сайтом. Мы перешли к следующему этапу анализа конкурентов — анализу контента. Как пример, разберем анализ контента одной страницы. В дальнейшем этот метод можно применить для других анализируемых страниц.
Используем сервис Overlead. me. В нем, при множестве других инструментов, доступен «Текстовый анализатор», позволяющий:
- Сравнивать текст нашего сайта (конкретной страницы) и его слова по техническим показателям с показателями конкурентов в топе.
- Находить отличия значений нашего сайта от эталонных показателей в топе.
Для работы нам потребуется:
- Собрать 10–15 ключевых слов для главной страницы сайта или любой другой анализируемой страницы.
- Внести собранные слова в инструмент «Выгрузка топ-10 сайтов» сервиса Arsenkin Tools.
- Провести чистку результата выдачи: убрать нерелевантные домены-конкуренты, исключить агрегаторы, маркетплейсы, нецелевые сайты и другой «мусор».
Регистрируемся в сервисе Overlead. me, выбираем тарифный план и заходим в инструмент «Текстовый анализатор».
На странице этого инструмента можно создавать группы проекта и объединять текстовые анализы конкретных проектов в одной группе.
Чтобы запустить новый тестовый анализ, необходимо использовать кнопку «Новый анализ». Появится диалоговое окно, куда необходимо:
- Внести название проекта.
- Выбрать ранее созданную группу, если необходимо.
- Внести ранее собранные ключи — до 20.
- Внести ранее собранные и «почищенные» конкуренты-страницы.
- Внести страницы-исключения, которые, по вашему мнению, не должны участвовать в анализе.
Настраиваем далее:
- В поле «Сравнить данные» выбираем «Адрес страницы», если хотим сравнить с контентом нашей существующей страницы.
- Вносим URL страницы. Если нет, то нажимаем кнопку «Не сравнивать». Также можно внести HTML-код страницы либо загрузить документ Word с текстом.
- Выбираем регион. По умолчанию Москву.
- Для анализа оставляем «Только мои URL». Если выбрать «Автоматически», то сервис сам будет подбирать URL конкурентов (их количество может быть запредельным, и анализ затянется надолго).
- В «Области анализа» выбираем «Контент».
- Нажимаем «Создать» и ждем результат.
Результаты анализа появятся, когда прогресс-бар будет заполнен на 100% и в колонке «Действия» станут доступны документы для скачивания:
- Текстовый анализ.
- Техническое задание копирайтеру.
При скачивании документов необходимо выбирать кнопку «Считать медиану». После скачивания начинаем работу с документом «Текстовый анализ».
Сам документ скачивается в формате *xlsx и имеет несколько вкладок: «Ключи», «Монограммы таблица», «LSI таблица», «URL’ы в анализе» и др. Здесь перечислены те вкладки, которые мы в основном используем для подготовки ТЗ.
Документ технического задания на текст мы готовим в Google Docs, образец ТЗ можно посмотреть здесь.
Основные моменты, которые нужно учесть при составлении ТЗ при работе с выгруженными данными текстового анализа:
1. Вкладка «Ключи»
Ключи используем по всему тексту — столбец «Текст». Важно в ТЗ указать количество ключей в «приоритетной части текста».
2. Вкладка «Монограммы таблица»
Из этой части таблицы берем вхождения слов — также для добавления по всему тексту. Обращаем внимание на количество в приоритетной части текста.
Вхождения монограмм, которые идентичны ключам либо входят в состав ключей, необходимо сминусовать. Иначе будет «задвоение», когда сервис не учитывает ранее использованные вхождения в ключевых словах.
3. Вкладка «LSI таблица»
Слова рекомендуется добавлять в указанном количестве, но если задача сложная, то можно добавлять и меньше. Если указано 10, то не требуется добавлять все 10, можно и 5–6.
4. Вкладка «URL’ы в анализе»
Эта информация необходима копирайтеру для обзора и работы с текстами конкурентов-лидеров.
Структуру текста смотрим с помощью сервиса Arsenkin Tools в инструменте «ТЗ на копирайтинг». Также добавляем собранные запросы, вносим наши отобранные URL’ы и начинаем формировать структуру.
Собирать структуру текста удобно при помощи раскрывающегося окна «Использовать предложенную структуру». При нажатии на «+» в раскрывающемся окне будет перечислена структура сайтов-конкурентов — оттуда можно забирать заголовки и подзаголовки.
После сбора структуры ее необходимо «подчистить» и подготовить для нашего сайта, перемещая заголовки. Выбираем самую полную структуру, чтобы она включала все заголовки и подзаголовки, которые отсутствуют у нас на сайте и есть у конкурентов-лидеров. Также можно добавить свои наработки.
Текстовый анализ статей конкурентов — важная часть SEO-продвижения. Такой анализ решает следующие задачи:
- Поиск «свежих» идей для создания своего текста, статей для блога и контент-плана в целом.
- Узнать, что и как пишут конкуренты, — и сделать лучше!
- Поиск действительно полезной информации, чтобы привлечь внимание пользователей.
Анализировать нужно все основные виды страниц — главную, страницы категорий, страницы блога и др. На что обратить внимание:
- Содержание страницы и ее элементы (структура страницы, картинки, фото, видео и др.).
- Полезность контента для пользователя.
- Корректность формирования структуры и иерархии заголовков H1–H6.
- Наличие списков и таблиц, облегчающих восприятие контента.
- Процент спама/переспама (это важно, чтобы не попасть под санкции поисковых систем).
- Общее количество и качество статей на сайте.
- Частота появления новых статей и контента, регулярность обновления.
Итак, документ заполнен — переходим к следующему этапу.
Оценим критическим взглядом технические параметры сайта
Проведение технического аудита сайта — очень важный элемент анализа конкурентов. Его задачи:
- Находить, фиксировать и исправлять ошибки, мешающие корректной работе сайта.
- Улучшать поисковую оптимизацию сайта для лучшей индексации и роста позиций в поиске.
- Повышать безопасность сайта. Проверка на уязвимости и настройка защиты снижают риск потери данных от случайных поломок и хакерских атак.
Мы используем сервис Screaming Frog SEO Spider — это, пожалуй, лучший сервис для технического аудита сайта в своем классе, потому что он:
- Анализирует ваш сайт и страницы по многим параметрам.
- Анализирует страницы конкурентных проектов.
- Проводит пакетный анализ списка URL и многое другое.
Рекомендуем этот сервис для обязательного применения при техническом аудите сайтов для целей SEO. В дополнение у него удобный и понятный интерфейс.
При работе со Screaming Frog SEO Spider мы смотрим, какие ошибки и проблемы обнаружены при парсинге сайта. Чаще всего это:
- Проблемы с безопасностью (блок Security).
- Коды ответов сервера (блок Response Codes).
- Проблемы с URL (блок URL).
- Проблемы с тегами: Title, Description, H1 и заголовками H1–H6.
- Проблемы с контентом (блок Content).
- Проблемы с изображениями (блок Images).
- Проблема с каноническими адресами (блок Canonicals).
- Проблемы с пагинацией страниц (блок Pagination).
- Проблемы с картой сайта sitemap. xml (блок Sitemaps).
Также анализируем:
- Файл robots. txt.
- Скорость загрузки основных страниц.
- Ошибки в «Вебмастере» (коды ответов страниц, страницы в индексе и «мусорные» страницы).
Пора изучить полученные данные «под микроскопом».
Структурируем и анализируем приоритет задач
Все проводимые работы по техническому аудиту обязательно фиксируем в документе «Технический аудит». Пример — здесь.
1. Проблемы с безопасностью (блок Security)
Если говорить о приоритете работ, то блок, связанный с безопасностью, можно отнести к приоритету в 50–60%. Это не первоочередная задача, ей можно заниматься, когда уже проделаны необходимые работы по сайту.
2. Коды ответов сервера (блок Response Codes)
В результатах парсинга отображены статусы и коды статусов всех ссылок — как внутренних, так и внешних. Здесь отображаются следующие данные:
- Адреса, заблокированные файлом robots. txt. Если в текущий отчет попали важные для продвижения страницы, то необходимо перепроверить файл robots. txt и скорректировать его. Заблокированные с его помощью адреса, скорее всего, не просканированы и не проиндексированы поисковыми роботами.
- No Response. Это значит, что адрес ресурса не отправляет ответ на HTTP-запрос. Причиной могут быть неправильные адреса, ошибка соединения и прочее.
- Success 2xx. Запрошенный адрес был получен, принят и успешно обработан.
- Redirection 3xx. Тут отображаются перенаправления (редиректы) на стороне сервера. Такие ссылки нежелательны: они влияют на скорость загрузки и увеличивают задержку между переходами пользователей.
- Client Error 4xx. Означает, что есть проблема с запросом. Самым распространенным считается код 404 — «Страница не найдена». Таких страниц на сайте быть не должно: необходимо заменить их на рабочие адреса, удалить с сайта или настроить перенаправление.
- Server Error 5xx. Серверу не удалось выполнить запрос. Этот отчет может означать, что сервер не справляется с нагрузкой. Необходимо откорректировать нагрузку или же выставить другие настройки для парсинга (сервер не выдерживает слишком большое количество запросов).
Приоритет работ — 80–90%.
3. Проблемы с URL (блок URL)
На этой вкладке содержится информация по ошибкам, допущенным в формировании URL-адресов:
- Символы, отличные от ASCII.
- Нижние подчеркивания — они не всегда воспринимаются поисковыми системами как разделители слов, так что лучше использовать дефисы.
- Прописные — URL чувствительны к регистру, поэтому лучше использовать адреса в нижнем регистре, чтобы избежать дублей.
- Множественные слэши — адреса должны содержать только одну косую черту, иначе поисковые системы могут посчитать такие ссылки дублями.
- Повторяющийся путь — признаки некорректной структуры.
- Пробел — считается небезопасным и может стать причиной разрыва ссылки.
- Внутренний поиск — URL может быть частью внутреннего поиска на сайте, который поисковые системы рекомендуют блокировать для сканирования и индексирования.
- Адреса, включающие «?» и «&» — не считаются грубой ошибкой, но рекомендовано ограничить количество этих параметров.
- Более 115 символов — нечеткое правило, но чем меньше длина у URL, тем лучше.
Приоритет работ — 60–70%.
4. Проблемы с тегами: Title, Description, H1 и заголовками H1–H6
Это разделы текстовой технической оптимизации.
- Заголовок страниц Title. HTML-элемент, который описывает суть страницы для пользователей и поисковых систем. Один из самых важных тегов в ранжировании, ошибки, допущенные при его формировании, очень сильно влияют на результаты продвижения.
- Описание страницы Description. HTML-элемент, где более подробно объясняется содержимое страницы.
- Заголовок H1. Считается самым важным заголовком на странице, он должен максимально точно описывать суть страницы и не дублироваться с Title.
Приоритет работ — 80–90%. Исправление и внедрение Title — 100%.
5. Проблемы с контентом (блок Content)
В текущей вкладке отображаются данные по содержанию URL-адресов:
- точные дубликаты;
- частичные дубликаты;
- страницы с низким содержанием контента;
- орфографические ошибки;
- грамматические ошибки.
Приоритет работ — 70–80%.
6. Проблемы с изображениями (блок Images)
В разделе по изображениям — сюда относятся как внутренние, так и внешние изображения, — отображаются типичные ошибки при оптимизации:
- вес более 100 Кб;
- отсутствие Alt;
- длина Alt более 100 символов.
Атрибуты Alt должны указывать релевантный и описательный альтернативный текст об изображении. Для некоторых проектов оптимизация картинок очень важна, она позволяет изображениям появляться в результатах поиска по картинкам в Google.
Слишком большой вес изображений может повлиять на скорость загрузки.
Приоритет работ — 60–70%.
7. Проблема с каноническими адресами (блок Canonicals)
На вкладке отображаются общая информация, связанная с каноническими адресами:
- Канонизированная страница. Этот отчет не всегда может говорить об ошибках. Необходимо точечно рассматривать страницы индивидуально по каждому проекту.
- Отсутствует канонический адрес. Если Canonical не указан, то есть шанс, что поисковая система может посчитать канонической совершенно другую страницу. Если так случится, то появятся проблемы с индексаций.
- Указано несколько ссылок. Ошибка, поскольку на странице должен быть указан только один канонический адрес.
Приоритет — 60–70%.
8. Проблемы с пагинацией страниц (блок Pagination)
В этом разделе можно отловить все ошибки, связанные с пагинацией.
- Выявляет первые страницы пагинации с тегом rel = «prev», проверяет наличие этого тега во всех 2+ страницах, показывая, что страница не первая.
- Указывает URL-��дрес разбиения на страницы с кодом ответа не 200.
- Обнаруживает несвязные адреса разбиения на страницы.
Приоритет работ — 70–80%.
9. Проблемы с картой сайта sitemap. xml (блок Sitemaps)
В этом разделе смотрим:
- всего HTML-страниц (URL) на сайте;
- HTML-страниц в карте сайта;
- HTML-страниц не в карте сайта;
- страницы-сироты и другое.
Приоритет работ — 90–100%.
10. Файл robots. txt
Robots. txt содержит информацию о том, какие разделы нельзя посещать поисковым роботам. Это нужно для того, чтобы в выдачу не попадало лишнее: служебные и временные файлы, формы авторизации и т. п.
В поисковой выдаче должен быть только уникальный контент и элементы, необходимые для корректного отображения страниц (изображения, CSS- и JS-коды).
Если на сайте нет robots. txt, роботы заходят на каждую страницу. Это занимает много времени и уменьшает вероятность того, что все нужные страницы будут проиндексированы корректно.
Приоритет работ — 90–100%.
11. Скорость загрузки основных страниц
Скорость загрузки сайта входит в перечень наиболее важных параметров интернет-ресурса. Этот показатель влияет на его ранжирование в рейтинге поисковой выдачи. От него во многом зависит конверсия продаж.
Приоритет работ — 80–90%.
12. Ошибки в «Вебмастере»
С помощью «Яндекс Вебмастера» необходимо смотреть:
- Какие страницы находятся в индексе.
- Какие страницы удалены.
- «Мусорные» страницы в индексе: с параметрами, непонятными символами в URL и др.
Приоритет работ — 90–100%.
Технический аудит сайта помогает понять его состояние и характер имеющихся ошибок и недоработок — так сказать, понять масштаб катастрофы.
Проведенный с помощью сервиса Screaming Frog техаудит 3+ конкурентов-лидеров даст понимание, где наш сайт находится до начала оптимизации в сравнении с сайтами конкурентов. Следовательно, даже базовые работы по технической оптимизации уже приведут к положительному результату и росту трафика.
Раскрываем секреты чужого ссылочного профиля
Анализ ссылочного профиля конкурентов — важный этап в изучении стратегии продвижения сайта, в том числе стратегии наращивания ссылочной массы. Мы понимаем, какие ссылки используют конкуренты, определяем их сайты-доноры и анкоры ссылок.
В этой статье мы не будем описывать механику подготовки анализа — материал достаточно емкий.
Кратко процесс изучения ссылочного профиля выглядит так:
- Добавляем исследуемый домен в сервис Ahrefs, инструмент «Анализ ссылочной массы».
- Анализируем динамику прироста ссылочного, определяем объем получения ссылочного в месяц — все это будет видно на графике.
- Скачиваем уникальные ссылающиеся домены конкурентов.
- Выгружаем общее количество ссылок и доменов.
- Анализируем анкоры ссылок, составляем анкор-лист для своего сайта.
- Все данные заносим в сводную таблицу.
В результате получаем документ со структурированными выводами о ссылках конкурентов.
Грамотный анализ лидеров ниши — ключ к успеху собственного сайта
Для удобства представили весь процесс наглядно. Скачать и детально изучить визуальную схему «Последовательность действий анализа конкурентов» можно здесь.
Опираясь на полученную информацию, мы приступаем к реализации стратегического SEO на нашем сайте. Но это уже материал для другой статьи или даже целого кейса.
Наша команда анализирует конкурентов в любой нише, какой бы сложной она ни была. Мы вооружены многолетним опытом и зоркими глазами — от нас не ускользнет ни один ключ! Пишите — проведем аудит конкурентов и расскажем, как обогнать их в поисковой выдаче.
А как вы проводите SEO-анализ конкурентов? Делитесь нестандартными решениями и инструментами в комментариях, обсудим ваши варианты.