Александр Скобялко

+69
с 2023

SEO-специалист, Product Manager

6 подписчиков
1 подписка

Таков результат развития человечества. Все хотят облегчить себе труд, максимально автоматизировать процессы.

Тут скорее будет зависеть от того, насколько больше заработка будет приносить Гуглу и Яндексу. Если профит в финансовом плане от изменений будет превышать негатив от пользователей, то оставят. Если же нет, то изменения откатят.

Возможно вы и правы. Но чем плохо то, что потенциальным клиентам нравится больше?

Возможно, будут чаще оставлять отзывы теперь, а не откладывать их на потом.

Поисковики на этом зарабатывают. Поэтому и будут делать так, чтобы рекламу было сложно отличить от реальной выдачи.

Другое дело, что теперь могут пострадать рекламодатели те, которые заплатили меньше и оказались в конце карусели, так как уменьшается шанс получения переходов по их рекламе.

От рекламы никуда уже не деться в современном мире.

Тоже придерживаюсь этого мнения. Хотя, многие уже используют для написания статей при продвижении ресурсов.

1

SEO-специалист, интернет-маркетолог, product manager.
Постоянно эксперементирую на собственных pet-проектах, и в дальнейшем переношу лучшие практики на коммерческие проекты.

1

Возможно, вы и правы, Юрий. Но всё же, есть уникумы, которые двигают прогресс и открывают новое.

Юрий, GPT по своей сути не может ничего нового написать. Он может перефразировать уже имеющиеся данные.

Если качественный контент будет находиться на неадаптивном сайте (а таких поверьте в 2024 году хватает), цена будет слишком завышена по сравнению с конкурентами, то у такого ресурса не будет высоких позиций. Единственное, что может спасти в этом случае - известный бренд компании (но в этом случае, стараются следить за состоянием своего сайта).

Подвижки всё таки есть. Проверял на некоторых своих проектах. Часто на качественные проекты проставлялись спамные ссылки, обращались напрямую к владельца тех ресурсов, но они не хотели снимать их. В итоге, в GSC эти ссылки не показывались, хотя и были время от времени переходы оттуда (смотрели по Я.Метрике). Яндекс так же не находил спамные ссылки.

Рустам, ссылки хоть и играют большую роль, но алгоритмы поисковых систем становятся всё более "умными" и учатся отличать спамные ссылки. В последствии не учитывая их в ранжировании сайтов. Частично об этом можно прочесть здесь https://vc.ru/marketing/1029098-google-vy-ne-vernete-svoy-reyting-esli-otkazhetes-ot-toksichnyh-ssylok

Ничего, бывает) Джон уточнил, что "спамные" ссылки лучше не отклонять через инструмент Disallow Tools, а оставить так как есть. А заниматься улучшением веб-ресурса. А конкуренты, которые тратятся на проставление спамных ссылок, а не занимаются развитием своего сайта - только вредят сами себе.

1

Исходя из сообщения Джона Мюллер, прогон хрумером не поможет "убить" конкурента. Поисковой алгоритм умеет определять и не учитывать "спамные" линки на сайт.

Роман, вы правы. Статья является переводом статьи с блога компании SemRush.

Виталий, не все работают только на внуренний рынок, но и на западный рынок. Для них статья будет актуальна.

Оценка показателей может меняться от:
1) нагрузки на сервер на котором располагается проверяемый ресурс,
2) ответа от сторонних ресурсов подключенных на страницах проверяемого ресурса.
3) загруженности интернет-канала, удалённости проверяющего сервера ваш сайт.
4) направление интернет-трафика до проверяющего сервиса, так как каждый раз трафик может идти через разные интернет-каналы.

Из чего можно сделать, что не всегда надо винить Google в не совершенстве их продуктов.

Если вам не льстит данный сервис по проверке скрости загрузки страниц ресурса/оптимизации под разные форматы устройств, то может предложите варианты, которыми пользуетесь сами? :)