Как мы автоматизировали работу с событийкой в беттинге и в 5 раз сократили сроки и бюджет на задачу

Рассказываем, как мы в Ant-Team.ru разработали уникальный инструмент для автоматизации продвижения и аналитики событийных страниц для беттинг-компании и теперь тратим минуты, а не часы на работу с посадочными и выводом их в топ.

Рис.1. Создали кастомный инструмент для автоматизации работы с событийкой.
Рис.1. Создали кастомный инструмент для автоматизации работы с событийкой.

Что за клиент и как работали с сайтом

Клиент — букмекерская компания, которая ведет бизнес в России и странах СНГ. Компания полностью легальна, действует на основании лицензий и в соответствии с законами стран присутствия.

Конкуренция в нише очень высокая. Так, еще в 2023 году объем рынка беттинга в России достиг 2,5 трлн рублей, из которых около 1,7 трлн рублей пришлось на онлайн-сегмент. Это на 12% больше, чем в предыдущем году. Увеличение интереса связано с популяризацией онлайн-ставок и активным развитием мобильных приложений.

Для работы с клиентским сайтом использовали несколько стратегий:

  1. Текстовая оптимизация. Работали с основными страницами, категориями, создавали полезный экспертный контент по теме, генерировали метатеги и т. д.
  2. Ссылочная оптимизация. Занимались закупкой ссылок, крауд-маркетингом, строили PBN-сеть под сайт клиента.
  3. Создание сайтов-сателлитов.

Стратегии понятные и рабочие, но для успешного продвижения их недостаточно. Нужна работа с событийным трафиком.

В чем особенности событийных страниц и как мы с ними работали

Трафик с событийных страниц в беттинге — всего лишь доли процентов от общего трафика сайта, но при этом именно событийка генерирует большую часть реальных клиентов и прибыли. Так что без нее не обойтись.

У всех стратегий свои особенности. У работы с событийным трафиком они такие:

  • В каждом регионе десятки событий: разные виды спорта, лиги, турниры, матчи. Для каждого мероприятия — своя посадочная, с которой SEO-специалист работает индивидуально.
  • Время на продвижение ограничено — страницы существуют от 4 до 14 дней, в десятке лидеров крупные агрегаторы с большими бюджетами. При этом каждое событие должно быстро оказаться в топе поисковой выдачи, иначе не будет клиентов и заработка.

Такие условия требуют четкой и отлаженной системы.

Все это у нас было и работало следующим образом:

Подготовка

  • Мы получали список событий от клиента, разрабатывали технические задания на тексты для посадочных страниц.
  • ТЗ передавали авторам через собственную биржу.
  • Готовые тексты отправляли клиенту и ждали появления посадочной на сайте.
  • Когда страница с текстом появлялись на сайте, составляли метатеги, выполняли маркдаун-разметку.

Отслеживание

  • Семантику отправляли на отслеживание и ежедневно снимали позиции страниц и ключевых слов, анализировали, как размещенные тексты влияют на позиции.

Все этапы фиксировали в виде статусов в специальной табличке в Google Sheets.

Большую часть работы делали вручную: проверяли наличие посадочных и контента на них, отслеживали позиции, статусы, переносили данные из таблиц в рабочую документацию.

На подготовку одной страницы уходило около 3-4 часов, на ежедневное отслеживание — от 30 до 90 минут в зависимости от активности спортивной жизни региона. В совокупности на эти задачи мы тратили от 15 до 25 часов в месяц.

Почему потребовалась автоматизация и решение собственной разработки

Процесс был выстроен хорошо и давал результаты, но ручная работа — это всегда время, деньги, периодические косяки и куча возможностей для улучшений (что приятно!).

Из-за объема задач (пять рынков, разные виды спорта, чемпионаты, разные типы турниров, разные лиги) случались человеческие ошибки. Ничего критичного, но нужно было потратить время на их поиск и исправление.

Событийные страницы «живут» недолго, так что традиционные инструменты (например, Google Search Console) не давали нам достаточно оперативных данных для корректного анализа. Гугл обновляет данные с задержкой от одного до двух-трех дней и может обрабатывать не все урлы. Это сильно затягивало время аналитики и мешало принятию решений.

Нам нужно было постоянно собирать и анализировать большие объемы данных, подходящего, гибкого и наглядного инструмента для этого не было.

Работу можно и нужно было оптимизировать: настроить отслеживание позиций страниц (в целом и по ключам) в реалтайм-режиме, автоматизировать сбор статусов, чтобы ускорить вывод в топ выдачи, избавиться от ошибок и сократить затраты.

Подходящих готовых решений на рынке не было, поэтому мы взялись за самостоятельную разработку.

Какие требования к решению сформировали

В первую очередь обсудили с клиентом и составили список функциональных и технических требований к решению.

Нужно было следующее:

  • Автоматизировать рутинные процессы: парсить данные по событиям, проверять появление страниц на сайте, генерировать ключевые запросы, мониторить наличие текста на посадочных, ежедневно отслеживать позиции.
  • Быстро собирать актуальные данные в режиме реального времени сразу из нескольких сервисов: позиции из Spyserp, частотность из Вордстата через сервис XMLRiver.
  • Создать дашборды для визуализации данных — удобную аналитическую систему, которая бы позволила группировать данные по типам событий, видам спорта, а также по любым другим характеристикам.
  • Стабильная, гибкая инфраструктура: продукт должен всегда работать без задержек.
  • Минимальное человеческое вмешательство.

В результате должен был получиться продукт, который связывается с системами клиента и нашими ресурсами, учитывает информацию со статусами работы по каждой событийной странице в отдельной таблице, а после размещения лендинга собирает данные из сервисов аналитики по странице. Сами данные доступны в любой момент в удобном виде на странице с дашбордами.

Как реализовывали

Проектирование пайплайна системы

Начали работу с проектирования базы данных — фундамента всего решения. Определили нужные данные и их структуру. После запланировали последовательность скриптов. В результате представили первый черновой прототип будущей системы.

Рис.2. Первый черновой пайплайн решения.
Рис.2. Первый черновой пайплайн решения.

Разработка

Подняли базу MySQL.

Написали скрипты на Python, которые обращаются:

  • к API Google Sheets и забирают данные из нашей сеошной таблички, где мы храним информацию о событиях, статус посадочной (размещена или нет) и данные о размещении текстов на этих страницах;
  • SpySERP, откуда собирают позиции запросов и базовую частотность этих запросов из XMLRiver для последующей аналитики позиций страниц.

В первой версии скрипт для сбора данных из Google Sheets «ходил» только в нашу табличку, а ссылки на лендинги с событиями и информацию о наличии текстов добавляли руками наши специалисты. Но в следующих итерациях разработки мы создали скрипт, который обращается к таблице клиента и забирает данные оттуда.

Визуализация

Создали простой, но интуитивно понятный дашборд в Google Looker Studio с фильтрацией и выводом основных метрик: позиции страниц, количество урлов в топ-10, частота запросов.

Сроки разработки

Базовая версия продукта была готова за (барабанная дробь) 16 часов.

Доработки — запуск парсинга сайтов и расширение функциональности — заняли еще 33 часа.

Первый вариант протестировали в рамках рабочих процессов клиента — в реальном времени, а затем быстро внедрили в продакшн.

Как все работает

На стороне клиента ничего менять не пришлось — все данные из клиентских таблиц (вид спорта, турнир, название и время события) автоматически парсятся с помощью Python-скриптов.

  • После появления страницы в SEO-таблицах (там собрана информация о событиях, соответствующие им страницы и т.д.) инструмент автоматически генерирует ключевые запросы. Использует название события и несколько триггерных слов: «ставки», «коэффициенты», «поставить». Ключевые слова записываются в нужный файловый формат без участия специалистов.
  • Сгенерированная семантика отправляется автоматически на отслеживание в SpySERP по API.
  • Ежедневно SpySERP проверяет позиции по сгенерированным ключам в поисковой выдаче, ну а мы забираем эти данные себе в БД.
  • Один из внедренных модулей ежедневно проверяет наличие текстов на страницах: если текст размещен, в таблице появляется соответствующий статус и дата.
  • Вся информация о позициях (а также о самих событиях, статусах страниц) выводится в Google Looker Studio на дашборды в виде наглядных графиков и таблиц. Фильтрация позволяет группировать данные по видам спорта, чемпионатам, либо иным характеристикам.
Рис.3. Фильтрация событийных страниц.
Рис.3. Фильтрация событийных страниц.
Рис.4. Данные по позициям страниц.
Рис.4. Данные по позициям страниц.
Рис.5. Данные по позициям и частотности конкретных запросов.
Рис.5. Данные по позициям и частотности конкретных запросов.
Рис.6. График нахождения страниц в ТОП-10 выдачи.
Рис.6. График нахождения страниц в ТОП-10 выдачи.

После завершения события данные автоматически удаляются из системы сбора позиций SpySERP, освобождая ресурсы.

Рис.7. Итоговый пайплайн решения.
Рис.7. Итоговый пайплайн решения.

К каким результатам пришли

В итоге клиент получил инструмент, который полностью автоматизирует рутинные процессы, позволяет в режиме реального времени отслеживать изменения позиций страниц, выполнять быструю аналитику.

Мы стали тратить на 2-3 часа меньше на подготовку к созданию событийных страниц, а ежедневный процесс отслеживания теперь занимает не больше 10 минут.

Стоимость текстов для посадочных сократилась в 3 раза: SEO-специалистам не приходится тратить время на формирование ключевых слов, ТЗ для текстов готовятся быстрее.

Автоматизация прошла настолько удачно, что работа SEO-специалистов свелась практически к нулю. А точнее, к одной-единственной задаче — передавать клиенту готовые тексты.

Еще один бонус: автоматизация рутинных процессов свела вероятность человеческой ошибки к минимуму.

Пока решение сосредоточено на задачах конкретного клиента, но его можно адаптировать к любому бизнесу и расширить поле применения. Например, использовать для интеграций с инструментами аналитики пользовательского поведения, прогнозирования эффективности страниц и анализа, а также разрабатывать дополнительные плагины для работы с данными.

Конкретно сейчас пожеланий по доработке продукта у заказчика нет. Но, возможно, они появятся, ведь клиент подключает к работе с дашбордом всё больше своих специалистов.

Если у вас есть задача по созданию кастомного инструмента для автоматизации рутинных задач, связанных с SEO, и вы ищете способы оптимизировать процессы, повысить эффективность работы, напишите нам в телеграм. Будем рады помочь!

Авторы: Анна Чечкова (руководитель отдела аналитики в Ant-Team.ru) и Денис Мещеряков (руководитель SEO-отдела в Ant-Team.ru).

Подписывайтесь на наш телеграм-канал, чтобы первыми узнавать о выходе новых материалов. И смотрите наши бесплатные обучающие видео на YouTube, VK и Rutube.

25
4
1
2
41 комментарий

Это прям высший пилотаж в автоматизации! Создать за столь короткое время инструмент, который экономит столько часов команде и денег клиенту, это просто супер! Молодцы!

1

Спасибо! Как уже писали выше, у нас классный отдел аналитики. Постоянно облегчают работу сеошникам и помогают увеличивать прибыль клиентам

1

Интересно, что базовая версия была готова всего за 16 часов. Это очень быстрый срок для такого рода автоматизации.
И еще любопытно, почему выбрали именно SpySERP? Был какой-то функционал, который оказался критично важным?

1

Получилось довольно быстро, так как работали с уже знакомыми инструментами и не пришлось искать и изучать что-то специфическое. Со SpySERP мы работаем с лета 2023 года и выбрали его, так как он полностью подходил под наши задачи.
Вот, кстати, наша история переезда на этот сервис - https://vc.ru/services/1467861-kak-my-sozdali-sobstvennuyu-bazu-dannyh-i-pereehali-iz-dorogogo-seowork-v-novyi-servis

1

Фига комментов наколотили. Это вы подписчиков из своей телеги попросили? :D

1

Ну вас же мы не просили)

1

Да сеошка вообще тема
Не понимаю почему её некоторые так отрицают

1