На 30% увеличили недельную прибыль интернет-магазина за счет использования логики нейросетей. Кейс SEO-агентства
Продолжаем исследовать и активно использовать возможности ИИ для SEO-продвижения. На этот раз работа с нейросетями помогла нам вывести крупный проект из стагнации и поднять недельную прибыль до 33%. Рассказываем, как это было.
Что за проект и как с ним работали
Интернет-магазином штор https://helga.ru мы начали заниматься с 2019 года, когда клиент обратился к нам за редизайном и SEO-продвижением.
Нужно было привести проект в порядок: избавиться от технических ошибок, познакомиться с особенностями бизнеса и предложить успешную стратегию. У нас была большая свобода действий, а все внедрения клиент согласовывал очень быстро. Результаты оценивали по KPI сайта и бизнеса: трафик, позиции в выдаче, спрос по Вордстату и выручке, которую генерируют покупатели из поисковых систем.
Наша стратегия состояла в том, чтобы максимально проработать структуру сайта и сделать легко масштабируемый интернет-магазин.
- Мы провели общий и коммерческий аудит.
- Занялись поиском интентов — запросов, под которые можно сформировать страницы на сайте.
Интенты писали с помощью словаря русского языка: к слову «шторы» добавляли все сочетания, снимали их частоту и получали двусловные запросы. Например, «штора красная», «штора кухня», «штора шелковая». Потом дополняли фразы до максимальных 7 слов (по Вордстату), связанных с покупкой штор, например, «шторы плотный красный шёлковый рисунок кухня купить».
Всего за два года таким образом мы закрыли все возможные интенты и создали 50 000 категорийных страниц.
- Параллельно работали со ссылками для Google. Внедрили шаблонные блоки с внутренней перелинковкой, а для приоритетных страниц написали SEO-тексты.
- Индексировали сайт через Google Indexing Api для Google и Index Now для Яндекса.
- Сделали GEO-проработку на подпапках. Собрали названия городов-миллионников и населенных пунктов с населением свыше 100 000 человек. Добавили эти города в теги H1 ко всем страницам категорий и автоматически создали подпапки по городам, ориентируясь на спрос покупателей.
Добились хороших результатов: трафик из поиска вырос в 10 раз.
Стагнация на проекте
В начале 2024 года показатели Метрики всё ещё росли, но по позициям в Яндексе произошла небольшая просадка. Чтобы справиться с ней, мы подключили работу с отзывами, внутренней и внешней репутацией. Позиции удалось восстановить, но рост трафика прекратился.
Начали тестировать новые идеи:
- Экспериментировали с метатегами.
- Расширяли фильтры (характеристики) товара.
- Искали новые интенты для внедрения страниц.
- Делали блок «вопрос-ответ» при помощи парсинга вопросов о товарах в кабинете клиента на OZON.
- Устраняли технические ошибки.
- Индексировали всё, что еще не было проиндексировано.
- Искали точки роста: обновляли семантику в системах отслеживания, оценивали эффект от внедрения и анализировали каждую просадку.
- Писали статьи в блоги с тематической аудиторией и размещали в них ссылки на наш ресурс.
- Делали On-Page (комплексная и полная проработка содержимого страницы) для приоритетных страниц.
Хоть идей и было много, все они касались примерно 1% продвигаемых страниц, а для реализации пришлось бы потратить кучу рабочих часов (и денег клиента). Новые посадочные страницы создавать было не нужно (мы проработали все возможные интенты), работа с отзывами и репутацией не приводила к ожидаемому эффекту, а затраты на более детальную аналитику составили бы около 40% бюджета. Нужно было что-то делать.
Как решали проблему со стагнацией проекта
Чтобы получить новые идеи для продвижения сайта, мы проконсультировались с коллегами-экспертами в SEO-комьюнити.
Взяли в работу некоторые предложения:
- Внутренняя перелинковка. Начали со страниц всех товаров ссылаться на категории, в которых они находились. Сначала страниц в индексе стало больше (как и просканированных), но они не были востребованы пользователями и через какое-то время выпали из индекса. Но индексируемость ресурса стала идеальной, мы не могли бы добиться такого, используя даже в промышленных масштабах Google Indexing API и Index Now. При этом на внедрение ушла сумма, равная затратам на индексацию за один месяц, около 20 000 рублей.
- Работа с текстовыми факторами. Чтобы повысить тематичность, требовалось расширить семантику страниц и количество ключевых запросов на них. Но было две проблемы. Первая заключалась в том, как собрать все семантические релевантные ключи и не потратить при этом годовой бюджет на SEO. Вторая — как добавить нужное число новых ключевых слов так, чтобы поисковые системы не восприняли их как спам. Можно было бы создать SEO-тексты, но это неоправданно увеличивало бюджет. Затраты на подготовку ТЗ, копирайтинг и менеджмент обошлись бы клиенту в 15 000 рублей за материал. Представьте, сколько ушло бы на проработку тысячи страниц. К тому же мы делаем сайт для людей, а не поисковиков — сеошные тексты на этих страницах не интересны аудитории.
Для второй проблемы решение нашлось быстро: в карточках товаров была возможность делать анкорные ссылки на другие разделы и страницы сайта.
Поэтому собранные релевантные ключи мы стали добавлять в виде ссылок на другие разделы и страницы сайта в содержимое карточки товара. Такие действия поисковики как спам не воспринимают, часто наоборот — считают это расширением ассортимента на странице, так как смотрят на неё в формате html (в зоне листинга товаров стало больше ссылок на другие страницы на сайте).
Собираем ключи с помощью частотного словаря
Теперь нужно было понять, как быстро и дёшево собрать релевантные ключи для внедрения на сайт. Мы решили использовать частотный словарь (ЧС).
Частотный словарь — это список ключевых слов и фраз, состоящий из лемм (начальная форма слова), которые распределены по частоте их употребления пользователями в поиске.
Составили список шагов для подготовки ЧС:
1. Собрать всю возможную семантику для всех страниц сайта. В нашем случае это были словосочетания типа «купить красные шторы в Москве» или «красные шторы лён купить».
2. Каждый запрос разбить на леммы — начальные формы слов. В результате получаем разбивку в виде «купить», «красный», «штора», «Москва», «лён».
3. Сгенерировать биграммы из лемм. Для этого соединяем две леммы и получаем новую ключевую фразу.
4. Посчитать, сколько раз каждая биграмма входит в запросы, которые мы собрали, и оценить их частоту — формируем ранжированный список ключей.
В качестве примера картинка ниже.
Представьте, что слева находится наше полное семантическое ядро. Если лемматизировать запросы и составить биграммы (сочетания из двух лемм), то получится список биграмм справа. Для каждой биграммы оцениваем, в каком количестве запросов из ядра она упоминается. Например, «Штора купить» есть во всех трёх запросах. Теперь считаем сумму частот всех запросов, в которых есть биграмма. «Штора купить» присутствует везде, поэтому складываем частоты и получаем 45 упоминаний. Так и формируется частотный словарь. Процесс создания биграмм можно автоматизировать с помощью платной утилиты для Excel, !SEMTools, которая по вечной лицензии стоит ~1000 рублей.
5. Чистим ключи — исключаем из списка всё, что не относится к теме и просто нелогично.
6. Подбираем соответствующую тематическую страницу на сайте для всех возможных релевантных ключей, которые остались после чистки запросов.
Если видим, что страницы для запросов нет, специально её не создаем.
То есть, если пользователь вобьёт в поиск «шторы с рисунком оленя» и увидит в выдаче страницу нашего сайта, по ссылке действительно будут шторы с рисунком оленя, а не какие-то другие. Если сам ключ будет выглядеть нечитабельно, например, «олень рисунок шторы», его нужно привести в понятную литературную форму и только потом размещать в карточке.
Почему вообще при работе с сайтами стоит погружаться в такие детали и составлять биграммы из лемматизированных запросов?
По непроверенной инсайдерской информации от одного источника, Яндекс также составляет биграммы из запросов пользователей для оценки релевантности страницы этим запросам.
Для эксперимента задачу по подготовке частотного словаря для одной страницы мы отдали сразу двум сотрудникам и … получили совершенно разные варианты. Каждый из них потратил на составление более пяти часов, при том что проработать нам нужно было около 2 000 страниц.
Разумеется, такой вариант совершенно не подходил, потому что стоил бы десятки миллионов рублей — ещё дороже, чем насыщение сайта SEO-текстами. Нам нужно было найти способ снизить стоимость работы или изменить процесс составления частотного словаря.
Зачем так мучаться, переписывать биграммы в читабельный вид и подбирать максимально релевантную страницу для этой перелинковки?
Ниша белая, пользователи ищут нужные им шторы, важно чтобы при переходе по ссылкам они получали то, что нужно. Да, этот блок больше сеошный чем пользовательский, но нужно заботиться и о пользователях. Тем более по карте кликов в Вебвизоре мы видим, что этими ссылками действительно пользуются.
В какой-нибудь серой и чёрной нише, например, никто бы не переписывал в читабельный вид эти биграммы — там это не так важно.
Использование принципов логики косинусной близости вместо создания частотного словаря
В этот сложный момент нам повезло: мы случайно наткнулись сразу на две статьи по теме от SEO-специалистов на VC (спасибо им за это!), в которых как раз были описаны новые идеи для оптимизации сайтов.
В одной рассматривалась логика LLM, в другой — методика использования бота t.me/vector_keywords_bot с нейросетью: Ваш SEO текстовый анализатор! Или как правильно искать LSI слова в эпоху нейросетей? Часть 1.
Из статей мы узнали о деталях использования ключевых слов в Яндексе.
Поисковая система работает по принципам, схожим с логикой функционирования таких нейросетей, как ChatGPT. Она учитывает контекст и предугадывает, какой результат должен быть получен. Для определения релевантности ключевых слов относительно друг друга или какой-то темы нейросеть использует косинусную близость — наибольшую тематическую близость различных слов между собой. Следовательно, чтобы соответствовать параметрам функционирования поисковой системы, для SEO-продвижения сайта стоит использовать не частотный словарь, а строить работу на принципах сочетаемости слов по их косинусной близости.
Например, у нас есть слова инжектор, кот и барсик. Вторые два имеют более логичную связь между собой, поэтому поисковые системы будут учитывать такой фактор и ранжировать страницу по большему числу запросов.
Почему подбор косинусной близости слов при помощи нейросети переворачивает подходы к SEO?
Нейросети за короткое время выдают максимально релевантный список семантически близких фраз. Да, нужно немного постараться, чтобы всё оцифровать и посчитать косинусную близость в таком виде, в каком её учитывают поисковые системы: определить, какие ключи добавлять, а какие — нет. Но в любом случае это однозначный прорыв в методологии работы в SEO.
Специфика бота для формирования словаря косинусной близости
Во второй статье мы нашли бота t.me/vector_keywords_bot, с которым работаем следующим образом:
- Даём ему один запрос для страницы, которую нам нужно проработать, или целый кластер — в этом случае будет больше релевантных вариантов.
- Бот генерирует дополнительные соответствующие запросы, формирует леммы и биграммы, рассчитывает косинусную близость и выдаёт список фраз, проранжированных по показателю косинусной близости.
Нам остаётся только выполнить шаги по сортировке слов, которые мы делали ранее после 4 пункта при составлении частотного словаря: убрать лишние фразы, подобрать ссылки для выбранных биграмм на страницы сайта и литературно обработать оставшиеся ключевики.
Как организовывали процесс и с какими трудностями столкнулись
В результате использования бота пришли к тому, что затраты сеошников на создание словаря косинусной близости сократились до трех часов (вместо пяти при работе с частотным словарем).
Уже хорошо. Но процессы нужно было оптимизировать дальше. Мы решили отдать задачу по составлению биграмм контент-менеджеру, так как его часы стоят дешевле. Но после контентщика SEO-специалистам приходилось переписывать практически каждый анкор (ключевик), так как они не совсем подходили по смыслу. В общем, идея оказалась не очень удачной — количество времени на доработку, наоборот, выросло.
Тогда мы решили сэкономить на проверке и привлекли редактора. Он оценивал каждый анкор на соответствие странице и редактировал его, потому что ему не нравился результат контент-менеджера. В итоге из-за сложности непрофильной задачи редактор перегорел… и уволился.
Стандартизировать написание анкора сложно: это творческая работа, которая требует грамотности и хорошего знания правил русского языка. Мы пришли к выводу, что работу с ботом стоит поручить копирайтерам. Мы отдаём им кластер или запрос для бота, а на выходе получаем готовый косинусный словарь с указанием ссылок для каждой леммы или биграммы.
После этого решения дело пошло: мы стали получать нужные анкоры с минимальным числом правок. Сейчас платим 240 рублей за подготовку блока из 24 запросов со ссылками. На эту работу копирайтеры тратят 20-30 минут.
Параллельно с этим разработчики сайта доработали функционал CMS: чтобы разместить ключевики со ссылками на страницы, нужно просто загрузить таблицу в систему управления сайтом. Все данные заполняются в автоматическом режиме.
К каким результатам пришли
Мы нашли хорошее решение для продвижения интернет-магазинов и оптимизировали поход к его реализации. Сейчас всё соответствует запланированному бюджету и часам загрузки SEO-специалистов. А стоимость словаря для одной страницы опустилась с 20 000 рублей до 1 500 рублей.
После внедрения еженедельный доход с сайта вырос на 33%. Рост органических показателей за месяц выглядел так:
В итоге заказчик даже привёл к нам нового клиента, который захотел получить такой же результат от оптимизации своего сайта.
Для агентства тоже оцениваем изменения очень высоко: теперь у нас есть протестированное готовое решение для крупных интернет-магазинов. Оно позволяет повысить показатели по трафику и привлечь больше клиентов.
Описываемый подход можно применить к интернет-магазинам, добавляя перелинковку на карточки подобным образом, или к агрегаторам отелей, сайтам по продаже автомобилей и другим ресурсам, где используются листинги с карточками товаров/услуг.
А к сайтам услуг, например, нужно искать иной подход интеграции биграмм: добавлять их в SEO-тексты, делать таблицы, внедрять карусели перелинковок. Главное, найти формат, подходящий конкретной нише, чтобы поисковики не восприняли это как спам, а люди получили реальную пользу.
Мы планируем масштабировать такой подход на все сайты интернет-магазинов клиентов. Для этого у нас есть необходимые регламенты, инструкции, команда копирайтеров и опыт менеджеров агентства. Также теперь мы отдельно предоставляем услугу создания словаря косинусной близости. На нашем сайте вы можете ознакомиться с услугой подробнее.
Автор: Кирилл Агафонов — руководитель SEO-отдела в Ant-Team.ru, продакт-менеджер биржи для работы с фрилансерами Flow-Task.com,.
Подписывайтесь на наш телеграм-канал, чтобы первыми узнавать о выходе новых материалов. И смотрите наши бесплатные обучающие видео на YouTube, VK и Rutube.