Как сервисы по сбору позиций обманывают пользователей: XML-выдача vs реальность
Стало интересно узнать в 2025 году, насколько сильные отличия XML-выдачи от реальной. Ведь 99% сервисов используют ненастоящую (XML) выдачу.
Из статьи вы получите ответы на вопросы:
1. Как получить 100% точные позиции
2. Насколько отличается xml и живая выдача
3. Стоит ли использовать xml-выдачу
4. Какие сервисы самые достоверные при сборе позиций
Из опроса знакомых, клиентов и профильных чатов образовался факт: подавляющее большинство даже не знает о формате XML-выдачи.
А ещё меньше знают, что 99% сервисов используют именно XML-выдачу, которая отличается от настоящей (живой). Кто этот 1% — будет в сравнительной таблице ниже.
Что же такое XML, надо обозначить, чтобы общаться в одном контексте.
XML-выдача — это специальный формат данных, который Яндекс предоставляет через API для разработчиков. Она содержит упрощённую информацию о результатах поиска, но не учитывает ключевые факторы, влияющие на реальную выдачу:
- Персонализацию (историю поиска, регион, устройство).
- Динамические элементы (быстрые ответы, карусели, рекламу).
- Актуальные алгоритмы ранжирования (XML часто обновляется реже).
Сервисы, использующие XML, экономят ресурсы: парсить такие данные проще и дешевле. Но цена этой экономии — ложная картина ваших позиций (аналитики).
А вот насколько она «ложная» (недостоверная), определим из исследования ниже, которое провёл в конце марта 2025 года (с 17 по 25 число).
В сети нашёл два старых источника с цифрами. В 2013 году от Деваки говорится, что отличия в коммерции всего 7–9%. А в 2016 году на Хабре — уже 25%.
Но существенным минусом является парсинг живой выдачи. Я же решил пойти дальше и перепроверять каждый запрос 10 разными людьми из одного региона — Москва. Единственный недочёт — это всего 12 запросов, по 3 на каждую из 4 ниш.
Выбрал их тоже неспроста:
1. Сайт плотно стоит в топ
2. Болтается в топ-10
3. Разные позиции с 1-30
4. Конкурентная ниша окна (волатильна?)
Из нюансов: на каждый сайт влияют ПФ (поведенческие факторы).
Всё это растянулось на неделю, так как были трудности с поиском исполнителей и проверкой их местоположения, которое решалось чеком из сервиса по IP.
В выборке были не SEO-шники, а случайные люди из разных буксов.
Вводную выдал — приступаем к разбору исследования. Дам пояснения по полученной таблице с результатами.
Слева — 12 коммерческих запросов, разбитых на гипотезы.
Каждый сайт взят под гипотезу (жёлтым слева над запросами).
Произвёл начальные замеры 18 и 19 числа, чтобы зафиксировать начальную точку.
Далее столбцы — это 10 человек из Москвы.
11-й человек — из СПб, о нём чуть позже.
Сбор производился с 20 по 25.03.2025.
На каждый сайт влияют ПФ (поведенческие факторы).
Плюс дополнительно для 3 фраз, которые за топ-10 (не на 1-й странице Яндекса), пользователи просматривали 2-ю страницу.
А теперь самое интересное. Что значит «нет» и почему так много их? «Нет» — это «не найден», даже в топ-20 по 3 фразам.
У 2-й гипотезы (5-6-7) собирали в одну дату — там сайт действительно сильно просел по XML. Потому данные можно считать достоверными.
1-й и 2-й сайты (гипотезы) отличаются от 3-го и 4-го. Поначалу подумал, что причина в оптимизации сайта, но, изучив старые данные до ПФ, видно, что они тоже были близко к топ-10. Ниже будет ответ, почему такая разница (в блоке «Факты»).
Интересные факты из анализа выдачи от пользователей.
Выдача не топ-10, а топ-13 по запросам, которые относятся больше к смешанному интенту (т.е частично информационные).
У пользователей различаются контекстные блоки: у кого-то их нет сверху или меньше, а у кого-то все 4 блока. Что, собственно, влияет на кликабельность.
Волатильность у каждого пользователя.
Даже примерно в одно время у каждого пользователя сайт на разных позициях. Погрешность довольно высокая, к примеру: 5 и 9 место, 9 и 6 место, 3 и 6.
Разные блоки колдунщиков.
Колдунщики (блоки, дополняющие выдачу) отличаются даже на выборке из 11 пользователей. У кого-то выводятся цены, у кого-то быстрые ответы, у других — видео-блок, сервисы Яндекса. При этом эти блоки вставляются в разных местах.
Там, где сильно крутят ПФ – сильная волатильность. 3 и 4 гипотеза.
То есть внутри топ-10 сайты у 11 пользователей в принципе разные (выдача сильно отличается).
Видимо, из-за постоянной перебивки друг друга сайты скачут, причём очень сильно.
Дополнительно: 3-я и 4-я ниши — с жёсткой конкуренцией по ПФ. В 3-й сидят лидгенщики (вебмастера), в 4-й — компании с бюджетами.
Примечательный факт: 8-й, 9-й и 10-й человек попали на накрутку уже другого человека у сайта 4-й гипотезы, и сайт по XML подрос получше. 3-й сайт тоже в это время подрос. Там выросла медиана, потому, видимо, сайт стабилизировался и частично начал показываться пользователям.
А что насчёт 11-го человека из СПб? Это, по сути, ты, читатель, который меняет регион, включает инкогнито. И, как видим, различия незначительны, но есть допустимая погрешность.
То есть проверили дополнительную гипотезу: если самому проверять — будет ли это достоверно?
Ответ не 100% достоверный: да, и если вы не находите сайт, значит, его там нет, несмотря на то что показывает XML-выдача. (Тут было бы здорово проверить ещё на 10 человек.)
Руками конечно так проверять мучительно долго, но как видим по таблице сервисов это можно сделать в toolzar.ru
Скоро в toolzar.ru сделаем возможность собирать первые 3 страницы (топ-30), чтобы снизить стоимость до 3 копеек за фразу. Так как всё, что дальше топ-30, имеет простой ответ для SEO: страница плохо базово оптимизирована.
Выводы
Отвечая на вопросы в начале статьи
1. Как получить 100% точные позиции.
Ответ: никак, она всегда будет отличаться хоть на 1 и более позицию.
2. Насколько отличается xml и живая выдача
Ответ: 30% - это довольно существенно. (исключая 3 и 4 ниши, где сильно крутят ПФ, там различия колоссальные)
3. Стоит ли использовать xml выдачу
Ответ: да, в SEO нужно понимать тренд динамики позиции. Жирный плюс – в 10 раз дешевле.
4. Какие сервисы самые достоверные при сборе позиций
Ответ:
seowork.ru – собирает только топ-30 живую выдачу.
toolzar.ru — где можно собрать обе и сравнить или по отдельности. Плюс сбор можно производить несколько раз в день для отслеживания средней позиции.
У меня самого остался один вопрос!
Готовы ли люди платить дороже, чем за XML, за более точные данные или нет?
В телеграмм канале у себя сделал голосование. Если тебе нужны точные данные по позициям – голосуй за вариант, мы сделаем!
Решения у меня пока 5, как сделать данные точнее:
1. Перепроверять живой выдачей топ-30, а не топ-100, что сэкономит деньги.
2. Собирать только топ-30, что по стоимости будет как XML (так делает Seowork, но там аудитория — профи и понимают это).
3. Перепроверять несколько раз в течение дня и выводить среднее — как делает Вебмастер по своим данным.
4. По запросам, которые сильно поменяли позицию, — перепроверять повторно.
5. Подтягивать данные с Вебмастера, но там не все запросы есть.
Это исследование готовилось больше недели.
На написание статьи для тебя – ушло 6 часов.
Поддержи лайком или оставь комментарий, чтобы поднять охваты и её увидело больше людей - тем самым выразишь "спасибо".