Семантическое ядро таких гигантов, как Ozon или Hoff, содержит сотни тысяч или миллионы запросов. Как собрать и почистить такую семантику всего за 10-15 часов? Ответ на этот вопрос — в большом техническом гайде с внутренней SEO-кухни MOAB. Все описанное читатель сможет повторить самостоятельно с минимальными усилиями.
Не совсем понятно, чем анализ с использованием масок url лучше, чем кластеризация по топу и проверку на коммерч по количеству озонов, маркетов и тд (что гораздо проще)
как я понял подход описанный в статье:
1. в моаб могут дешево и быстр выдачу получать и ключи в глубину снимать от маркеров/базовых (скорее всего потому что у них есть сервисы разные и локально хранят результаты, что снижает количество прямых запросов к вордстату и поисковикам)
2. поэтому они идут по оптимизированному для себя пути
2.1. формируют все ключи с вхождениями нужных им маркеров/бизисов
2.1. по ним получают все ссылки из топ 10
2.2. делают анализ вхождений в урлы слов по наиболее встречаемым страницам (это на порядок меньше человеку и быстрее чем в 700 000 ключах копаться)
2.3. формируют маски (скорее регексом, просто для статьи для понимания упростили до * )
2.4. прогоняют выдачу через маски и получают чистые ключи и уже потом приступают к кластеризации и т.п. как классически учат везде, но опять же как понимаю - у них уже есть не один большой массив, а отдельные массивы по маскам для кластеризации.
на маленьких объемах, кажется не оптимальная стратегия, а вот на больших - сокращает работу, банально тех же кластеризаторов - быстрее 10 раз по 10 000 ключей, чем один раз 1 000 000 кластеризовать.
я сейчас это все говорю ни как SEO специалист, а как человек имеющий отношение к проектам связанным с анализом и классификацией текстов, построение графовых баз и т.п.