Что происходит в поиске (SEO) в 2024 году?

https://www.youtube.com/watch?v=YhyRZ9ovAq4&t=378s
https://www.youtube.com/watch?v=YhyRZ9ovAq4&t=378s

Просели позиции, упал трафик, стало меньше посетителей? А я давно уже в ТОПе.

Релевантность это теперь не всегда высокие позиции по запросам. Даже большая длинная статья не гарантирует ТОП. Даже структура/блоки скопированные у всех конкурентов из ТОПа.

Напомню Яндекс анонсировал «Проксиму» на «Двенадцатой Вебмастерской»

Проксима = Релевантность Х Качество страницы.

Если с релевантностью Seo-специалистам должно быть все понятно, то вот качество уже для многих сложное и новое понятие. Определенно оно связанно уже не просто с запросами, добавлением LSI на странице, а с тем что видит посетитель вашего сайта перед решением заказывать товар/услугу на сайте, нашел ли он то что искал — ответ на свой вопрос.

Что может быть качеством страницы?

1) Уникальность информации, причем не техническая, а именно смысловая.

Это не всегда прямо про экспертный текст, а скорее это текст про опыт именно вашего бизнеса. Результатов в поиске по которым переходят реальные посетители не так много (обычно это ТОП10), поэтому показывать страницы про одно и тоже не имеет смысла. Посетитель прочитает 1 раз и далее уже не смотрит остальные результаты выдачи.

Генерированный текст это именно про это, также дешевый копирайтинг тоже и даже старый текст который вы сами написали пару лет назад (причина далее).

2) Поведенческие метрики и трафик в целом

В целом стандартный набор про который все говорят: время проведенное на сайте, количество посещенных страниц, отправка форм, а самое главное возврат или не возврат обратно в поиск. Блоки под запрос посетителей для решения их задач, причем они работают и на релевантность за счет содержащихся ключей. Без трафика не будет оценок вашего сайта, его качества, что видят посетители. Если трафик стал не такой какой нужен — будет просадка. Пришел конкурент с другими показателями один, второй, третий и сайт может быть понижен, он станет на их фоне средним.

3) Отзывы о сайте / бизнесе

В интернете можно найти множество упоминаний о вашем бизнесе, но не думайте что они только для посетителей. Их тоже можно учитывать в качестве страницы, хоть тут вроде больше речь про бизнес, но коммерческий сайт то должен принадлежать бизнесу. Посетитель почитает отзывы и не будет заказывать товар/услугу это уже поведенческая метрика. А перейдя на сайт и увидев текст, сгенерированные картинки, почти одинаковые с тем что он видел на остальных сайтах, опять же уровень доверия будет низкий.

Собственно все перечисленные моменты связанны между собой.

Причины обновлений

Основные причины пересмотра алгоритмов Яндекса массовые действия в интернете:

1) Использование генерированных текстов;

2) Накрутка поведенческих факторов.

До этого напомню другие обновления:

Яндекс обновил МПК, который теперь именно борется с неуникальностью. Хотя тут речь про технический аспект.

Яндекс обновил «Мимикрию». Объективно опять речь про уникальность, но уже про копирование сайта больше.

В интернете сайтов становится все больше, всегда есть конкуренты, позиции не заморожены, вы должны с ними конкурировать всегда и точка, а не просто написать текст → получить ТОП, трафик.

Интернет был вообще всегда неуникальным

Да. На заре создания по сути все содержимое просто копировалось с бумажных книг, журналов, справочников и каталогов. Ну кроме форумов где было именно живое общение.

Копирайтинг не сильно отличался от рерайтинга. По сути вместо 1-2 источников, могли брать 5-7 из того же ТОПа выдачи по запросам. Делали техническую уникализацию перестановкой запросов, целых предложений и конечно массовой заменой слов на синонимы.

И вот это вот все индексировалось поисковиками Яндексом и Гуглом. А какой выбор? Да, на тот момент никакого.

Были конечно ещё дорвеи с текстами из сборной солянки просто с нескольких источников, переводы с текстов сайтов на английском языке. Но и они вычислялись постепенно в обновлениях и пропадали из выдачи. Да и не всегда создавались именно под получение трафика.

Появление накрутки поведенческих факторов и потом генерации текстов

Сначала её нечасто использовали из-за цены и сложности в целом, да и инструментов было немного в которых нужно ещё разобраться.

Шло время и появлялись новые инструменты, стоимость стала снижаться. Любые сайты стали накручивать и значительно выросло влияние на выдачу и оценку.

Благодаря возможности создания текстов практически без затрат их стали практически сразу применять как в небольших объемах, так и массово. Собственно с уникальностью были проблемы, но теперь ежедневно выходят сотни материалов про одно и тоже.

И что теперь делать?

Собирать данные о сайтах конкурентов, посетителях, клиентах, их отзывы и делать контент на основании этих данных. Базовую семантику, LSI, техничку оставить в фундаменте, а сверху делать именно то зачем к вам приходят на сайт.

Дополнение по комментариям

Почему в выдаче показываются сайты на английском?

Есть следующее моменты:

1) Яндекс делает перевод текстов теперь по ссылке

2) Яндекс считает информацию уникальной для себя и посетителей, вот её и показывает.

5
22 комментария