Как собрать семантику всего за пару часов
Сбор семантики – самая трудозатратная и рутинная работа, но без нее никуда, это основа основ в SEO-продвижении.
Раньше я н��навидела собирать семантику, эта работа занимала у меня целый день, а то и два дня. Но со временем узнала о разных лайфхаках и сформировала для себя основные способы, которые упрощают сбор, но при этом не ухудшают качество ядра.
Что за ядро нужно?
Для начала нужно определить, какая семантика нужна: коммерческая или информационная. Перед нами маленький 30 страничный сайт с услугами или огромный интернет-магазин с несколькими сотнями страниц.
Ситуация «Нужна информационка или семанточка для маленького сайтика»
Представим, что у нас сайт шампуня от перхоти, и возникла идея развивать информационный блог. Самый главный вопрос в информационной семантике: где брать идеи статей?
Рассказываю:
Подсказки в Яндексе и Google
Вводим «перхоть как», «перхоть что», «перхоть почему» и натыкаемся на различные запросы.
Кстати, чтобы скопировать подсказки из Google, нажмите на «Пожаловаться на неприемлемые подсказки» и скопируйте запросы.
Также можно вбить «перхоть +как» «перхоть +что» и т.д. в Вордстате и вытаскивать запросы оттуда.
У меня установлено расширение Yandex Wordstat Assistant. С его помощью можно добавлять запросы прям в Вебмастере и сразу распределять по страницам. Потом нажимаем «Копировать» и вставляем в Excel.
Сервис https://answerthepublic.com/
Удобно структурирует запросы. Если в Вордстате нужно самим подбирать уточняющее слово, то этот сервис делает это за вас. Просто вводим: «перхоть».
Бесплатно можно прогнать только 3 запроса за день.
Угон запросов конкурентов
Отбираем несколько популярных запросов, например: что такое перхоть, как избавить от перхоти, как перхоть влияет на волосы и т.д. и идем искать конкурентов. В нашем случае это могут быть сайты прямых конкурентов – шампуней от перхоти, информационные медицинские порталы или сайты клиник с разделом про волосы или перхоть.
Найти конкурентов можно вручную, можно залить несколько запросов в ТОПзизор и прогнать конкурентов или вытащить из Arsenkin Tools. В Google я вытащу вручную, а в Яндексе прогоню в Арсенкине: «Инструменты» -> «Выгрузка ТОП-10», вводим запрос «как избавиться от перхоти», получаем ТОП-10 страниц по этому запросу.
Нам подходят следующие конкуренты:
- https://www.upclinic.ru/information/trikhologiya/ - Сайт клиники с разделом «Трихология».
- https://www.headandshoulders.ru/ru-ru/vse-stati/ - Сайт шампуня от перхоти с развитым информационным блогом.
- https://www.allthingshair.com/ru-ru/уход-за-волосами/перхоть/ - Информационный сайт про волосы с разделом про перхоть.
Есть несколько вариантов, как использовать этот сервис:
Для одной страницы. Берем понравившуюся статью, например: https://www.allthingshair.com/ru-ru/уход-за-волосами/перхоть/как-избавиться-от-перхоти/, закидываем в Ahrefs с пометкой «Точный URL», переходим в «Органический поиск» -> «Ключевые слова». Получаем список запросов, по которым продвигается статья.
Для нескольких страниц. Берем раздел, где находятся нужные статьи – https://www.allthingshair.com/ru-ru/уход-за-волосами/, закидываем в Ahrefs с пометкой «Путь». И получаем запросы по разным страницам из одного раздела.
По запросам. Еще можно кликнуть на какой-то запрос и получиться кучу запросов по этой теме.
Запросы можно фильтровать, сортировать и экспортировать в Excel.
Суть та же самая, что и у Ahrefs: есть возможность собрать запросы по одной странице, по разным страницам сразу и подобрать похожие запросы по фразе.
Чтобы получить запросы по одной страницы, просто закидываем URL и получаем запросы.
Для получения запросов с разных страницы, закидываем домен, например headandshoulders.ru, далее «Органическая выдача» -> «Дерево страниц». Слева страницы, справа запросы по этим страницам.
Также в Keys.so можно вбить запрос и посмотреть дополняющие фразы.
Этот инструмент тоже позволяет фильтровать, сортировать и экспортировать.
Важно! Какие-то страницы конкурентов могут быть плохо оптимизированы и сервисы не выдадут вам ключи, но темы будут высокочастотные. Поэтому также обращайте внимание на страницы, по которым сервисы не подобрали запросы и прогоняйте частотность тем.
Эй, алё, в заголовке про коммерческую семантику было!!!
Ах, да. Если сайт маленький, то можно воспользоваться вышеописанными способами. Представим, что у нас сайт ремонта бытовой техники. Находим конкурента, например: https://nord-remont.ru/. Закидываем сайт в или Ahrefs или Keys.so и отбираем нужные для себя запросы.
Также можно по-быстрому пройтись в Вордстате и накидать запросов.
Ситуация «Нужно семантище»
Самые главные вопросы в коммерческой большой семантике: как собрать базовые ключи и как не увязнуть в чистке ключей?
Рассказываю:
Для сбора базовых ключей нам понадобится Screaming Frog и Excel.
Парсим H1 сайта, для которого нужна семантика, в Screaming Frog. (Для парсинга взят рандомный сайт с 3 страницы Google по запросу «купить инструменты»).
Экспортируем H1 в Excel. Собирать СЯ будем только для категорий и подкатегорий, поэтому нужно удалить служебные страницы и страницы товаров. На этом этапе нужно понять, как быстро почистить все товары и служебные товары. Я заметила, что H1 товаров длиннее, чем H1 категорий, поэтому я измерю длину строки формулой =ДЛСТР() и отсортирую по убыванию.
Вот что получилось:
Наверху страницы товаров, удаляем все что больше 33 символов. Далее уже просматриваем таблицу и удаляем оставшиеся товары вручную.
Вот что осталось теперь:
Осталось удалить служебные страницы. Заметила, что эти страницы не относятся к папке «catalog», поэтому фильтруем по правилу не содержат «catalog».
Удаляем такие страницы.
У нас остались только страницы категорий и подкатегорий. Теперь нужно пройтись по каждой странице и внести корректировки, дополнить синонимами, разделить, если там два слова и т.д.
Теперь составляем список коммерческих слов. Например: купить, цена, заказать.
С помощью формулы =СЦЕП(Текст 1; Текст2) получаем ключи с коммерческими словами.
Нам нужно все это закинуть в Key Collector по папкам. Из строк URL убираем «https://» так как это будет мешать, позже поймете почему. Просто автоматом через CTRL+F находим избавляемся от этого выражения.
Теперь с помощью уже известной формулы СЦЕП соединяем URL + “:” + готовый запрос.
Должно получиться так:
Идем в Key Collector, нажимаем «Добавить фразы», в настройках выбираем «Использовать режим импортирования Группа:Ключ». Вот тут бы нам помешало «:» в https://, поэтому мы от этого и избавились.
Добавляем наши выражения.
И получаем запросы, уже распределенные по группам.
В принципе, уже можно снимать частоту, если вы подобрали достаточно коммерческих слов и синонимов, или если вам нужно собрать базовое ядро, чтобы оценить видимость сайта в поисковых системах. Если же вам нужно полное ядро, требуется расширение категорий или вы особо не парились с подбором синонимов, то лучше еще собрать Водстат и похожие запросы.
Читерим
- Выгружайте H1 из Screaming Frog, чтобы не собирать базовые ключи вручную.
- Применяйте возможности Excel: фильтры, сортировка, автоматическая замена/удаление и конечно же формулы.
=СЦЕП – понадобится для объединения запросов с коммерческими словами и для загрузки в Key Collector через Группа:Ключ.
=ДЛСТР – не всегда, но может понадобиться для измерения H1 и удаления страниц товаров.
- Загружайте запросы в Key Collector через Группа:Ключ, и вам не нужно будет тратить время на распределения запросов по группам.
- Пользуйтесь расширением Yandex Wordstat Assistant, чтобы добавлять/удалять запросы и распределять сразу по страницам.
- Для чистки запросов в Key Collector используйте список стоп-слов. Например: бесплатно, фото, видео, своими руками и т.д.
- Пользуйтесь прокси, чтобы ускорить работу Key Collector. Можно уложиться в стоимость 300-500 рублей в месяц, а скорость сбора увеличится в 3-4 раза.