Cписок подходов для контекстной рекламы, которые вы не используете
Всем привет! Хотелось бы ввести рубрику небольшой подборки фишек по контекстной рекламе, которые я часто использую в работе и сталкиваюсь при аудитах.
Надеюсь, формат станет регулярным.
Подписывайтесь на мой блог, там много всего интересного, что не влазит по объему в большие лонгриды на VC.
Передача данных о ЦА в CRM
Системы сквозной аналитики / CRM не содержат данные по срезам вашей ЦА. Их можно собирать вручную на основе вопросов от менеджеров, дальнейших кастдэвов и так далее, но со старта этого нет.
Это частично решает «прокидывание» оффлайн-конверсий в Метрику и сводке данных в Директе, но помним про окно атрибуции в 21 день, ошибки мэтчинга, ненастроенные статусы у клиента в CRM.
В Директе | GAD можно за счет корректировок каждую группу выделить в отдельный сегмент и через простые метки utm передавать их внутрь систем, для этого нам нужно взять параметр {gbid} — это ID группы, и смэтчить это всё через стандартную ВПР-функцию в таблицах.
Но у нас сразу встает вопрос касаемо объема групп в РК. Мы всегда должны соблюдать ограничение на 1000 групп. Поэтому, если проект большой, то мы не сможем на каждый возраст или любой другой сегмент сделать свою группу, а излишняя сегментация по РК может навредить количеству конверсий и уменьшить наш объем конверсий для обучения.
Поэтому, если объем групп небольшой, то мы спокойно можем передавать данные, например, по возрасту / полу / типу устройства. Обычно лучше прокидывать возраст и пол, можно вместе, можно по раздельности, смотрите на ваш объем данных для достижения статистической достоверности.
А если наоборот, то можно попробовать сегментировать на разные РК, если у вас достаточно данных по конверсиям, или взять более крупные сегменты, получить хоть какую-то информацию.
Таким образом, мы можем узнать:
- Какой сегмент имеет наибольшую квалификацию?
- Какой сегмент аудитории приносит спам?
- Какой сегмент аудитории лучше окупается?
- У какого сегмента аудитории выше средний чек?
И так далее.
Использование цели - вайт-площадки для смещения показов на нужный нам список площадок в РСЯ
Основная проблема — мобильные приложения и DSP-площадки в показах РСЯ.
Об этом писал в статье ранее - https://vc.ru/marketing/1210634-kak-poluchat-do-85-trafika-s-nuzhnyh-ploshadok-v-rsya-keis-ot-idtoneru
Если кратко:
- Мы собираем или используем готовый список (на основании прошлых проектов) площадок.
- Добавляем в метку параметр {source}, который передает площадку.
- Настраиваем цель в метрике — посещение URL и через регулярное выражение перечисляем площадки в формате: площадка1|площадка2|площадка3|...
- Используем эту цель в оптимизации с меньшей ценностью («весом»), чем макроцели.
- После обучения получаем смещение трафика на нужные площадки.
Старт РСЯ кампаний с десктопа
Делаем в дополнение к вайт-площадкам. Сначала обучаем РК на десктоп трафике, после выхода на стабильный результат постепенно возвращаем мобайл.
Тут важно учесть, что под мобайлом я подразумеваю и мобильные, и планшеты. Несмотря на небольшую долю планшетов в среднем, по ним слить можно очень много, учитывая миссклик с приложений и DSP.
Со старта получаете идеальный трафик, который даже чистить без статистики не надо. Единственная проблема, с которой сталкиваемся, — это объем конверсий, но подумайте в сторону объединения РК или использования пакетных стратегий.
Алгоритм простой:
- Минусуем мобильные и планшеты: -100%.
- Запускаем кампанию.
- Через неделю +- смотрим объем конверсий, если РК обучилась, то по 10-20% начинаем прибавлять мобайл-трафик (снимать корректировки), при этом активно начинаем чистить площадки, и да, они все равно будут.
Анализ N-GRAM
В чем «соль»: мы не копим статистику по каждому из поисковых запросов, накапливая статистическую достоверность данных, сливая деньги клиента, а разделяем их на отдельные слова или словосочетания (граммы, N — количество слов) и снимаем показы/клики/расход/CPL и прочие метрики в отдельности по ним. Тем самым получаем усредненную картину по каждой форме, дальше мы можем делать с ней что хотим: отключать все запросы, содержащие данную грамму, выносить в отдельные группы с корректировками, расширять семантику на основе положительной граммы и т. д.
Чтобы провести N-GRAM анализ нужна надстройка от Димы Тумайкина SEM TOOLS - https://semtools.guru/ru/blog/n-gram-analysis-ppc/ (не реклама, можно сделать на python, но зачем если уже есть готовое решение за смешные деньги с дополнительным огромным функционалом который упрощает работу).
Подробно описывать процесс не буду, он полностью описан у Дмитрия в видео. Остановлюсь только на особенностях которые нужно учесть при его выполнении:
- Убираем предлоги — делаем, так как лексической ценности они в большинстве случаев не несут, а отдельные случаи приходится просматривать полноценным поисковым запросом.
- Заходим на сайт https://www.andrey-yeriomin.ru/minus/.
- Берем список предлогов - Предлоги для исключения N-GRAM.
- Копируем весь наш список ключей в поле и удаляем из фраз наши предлоги, получаем «чистый» список.
- Убираем операторы: !, +, “ “, [ ] - также будут мешать статистике, поэтому убираем. Можно использовать эксель (Ctrl + H) или https://hmarketing.ru/tools/kontekst/.
- Привести к начальной форме (ед. число, именительный падеж) — причина та же, лексически падеж и род не очень важны, можно пренебречь, несмотря на то, что есть исключения.
- Идем в SEMTOOLS.
- Выбираем «Изменить» — «Слова» — «Просклонять» — «Всё, что склоняется» — «Лемматизация».
- Немного ждем, пока не появится лист lemms и повторяем действие еще раз (важно, чтобы вы не испугались).
- Получаем статистику N-GRAM. В целом в 99% хватает 3 GRAM (1-GRAM, 2-GRAM, 3-GRAM), 99% заложено в 1-GRAM.
- Идем в «Семантический анализ» — «Составить частотный словарь» — «N-GRAM» — «Выбираем нужное количество GRAM».
- Получаем вот такой список с перфомансом по каждой грамме:
- Удаляем лишние строки, приводим числа к нужному формату, прокидываем значения по CPL|CPC|CTR, а дальше работаем с агрегированными данными как с обычными ключами: пессимизируем/максимизируем или исключаем.
P. S.: данные лучше хранить и обрабатывать в Excel, потому что, если скопируете из Google Таблиц, нужно будет удалять доп. символы, которые нетипичны, просто поверьте, вы этого не хотите).
Использование объединенной структуры и управление продуктами/услугами на уровне групп.
Начнем с правила: если сущность РК — не набирает 10 конверсий в неделю (лучше больше) и не сталкивается с ограничениями: по бюджету, дневному ограничению на аккаунт, низкими ставками по ключам/стратегии, ошибками настройки и т. д., то имеет смысл ее объединять с другими рекламными кампаниями.
Многие пугаются, что тем самым теряют управление бюджетами, приоритетами, нужно задавать разные ставки для разных продуктов — тут доля правды есть, но нам же нужно, чтобы лучше работало?
Как объединять? Использовать общие рекламные кампании с разделением по группам, используя простые префиксы к названиям, например _посудомойки, а также корректировки ставок для всех устройств, тем самым мы можем задавать приоритет, менять бюджет внутри групп, задавать разные CPL и так далее.
Правила объединения:
- Плейсменты лучше разделять: поиск и сети — форматы разные, в РСЯ есть проблемы с площадками и в целом перфомансом, поэтому лучше делить на разные РК.
- Всегда нужно быть готовым, что будет смещение перфоманса, то есть ваш продукт может быть полностью пессимизирован. Яндексу в целом без разницы, что продвигать, он смещает фокус на то, что дает больше всего результата, поэтому обязательно нужно следить за этим. И в случае чего откатывать обратно или пробовать корректировками «выпрямлять» ситуацию.
С этой структурой удобно работать через таблицу соответствия: группа — продукт, собирая статистику в табличке по каждому продукту в отдельности (чтобы смэтчить, поможет формула ВПР или любой другой метод объединения). И управление будет происходить не на уровне самой кампании, а на уровне группы за счет корректировок.
Как один из примеров, табличка, созданная по такому принципу в отчете datalens. Отдельно можно по каждому продукту выводить по любому срезу, поисковым запросам или площадкам. Если собираете отчеты вручную, то не очень удобно, если через базы данных и отчет datalens, то всё это собирается автоматом.
Анализ ситуации по товарам из товарных объявлений
Классическая ситуация, которую вижу повсеместно: загрузили фид, настроили товарные объявления — всё, показываем. Что там внутри, какой перфоманс у конкретного товара не очень интересно.
На самом деле, тут анализ аналогичен тому, как мы анализируем любой срез. В мастере отчетов Директа есть галочка «Название товара/каталога», тем самым мы можем проанализировать любой товар и исключить его, вынести в отдельные группы через фильтр с корректировками. Тем самым улучшив экономику по товарным объявлениям.
На этом всё, применяйте методы, тестируйте, и стабильных вам результатов, и, конечно же, поменьше фрода.
Мой блог в ТГ: