Всем доброго дня! Конечно немного "другая тематика", но точка зрения имеет право на существование=) После майского изменения основного алгоритма и последующих изменений прошло более двух месяцев. Решили посмотреть детального логи log -файлы "статистику после апдейта" с веб сервера для сайтов: https://istratehnik.ru https://istramaster.ru Немного удивила такая статистика и дала повод...Все может зависеть от тематики и локализации! Посмотрели какие Боты и как часто заходили на сайт. Видим, что с сайта "не вылазят" боты яндекса и mail.ru_bot, а также "прописались" другие явные и не явные роботы, "парсеры" и пр.пауки... После "майского адейта" Googlebot уступает другим роботам и программам в частоте посещения сайтов?
Получается сейчас весь контент сайтов отдан на "откуп" яндексу, mail.ru, и другим ребятам...Предполагаем, что такое не равномерное посещения сайтов "Роботами" создает определенные риски для поддержания актуальности и сохранения "оригинальности" контента для его ранжирования алгоритмами Google и для последующей поисковой выдачи. Это также влияет на трафик и позиции в поиске...
Хорошо, что можно предпринять, какие выводы и какую выбрать тактику? Пока напрашивается решение: 1. Продолжать размещать внешние ссылки, чтобы googlebot чаще переходил на сайт. 2. Использовать Search console для ручной отправки Googlebot на сайт после изменений. 3. Попробовать "тонкую аккуратную" настройку веб сервера, чтобы уровнять частоту посещений Ботами сайта..."Уровнять шансы и возможности" - Ну чтобы Googlebot не проигрывал другим Ботам и "парсерам" =).
Так хотя бы можно попытаться сохранить наработанные "очки", трафик и позиции. Все зависит от сферы и тематики, смотреть и делать по статистике очень аккуратно...
Всем доброго дня! Конечно немного "другая тематика", но точка зрения имеет право на существование=)
После майского изменения основного алгоритма и последующих изменений прошло более двух месяцев. Решили посмотреть детального логи log -файлы "статистику после апдейта" с веб сервера для сайтов:
https://istratehnik.ru
https://istramaster.ru
Немного удивила такая статистика и дала повод...Все может зависеть от тематики и локализации!
Посмотрели какие Боты и как часто заходили на сайт. Видим, что с сайта "не вылазят" боты яндекса и mail.ru_bot, а также "прописались" другие явные и не явные роботы, "парсеры" и пр.пауки...
После "майского адейта" Googlebot уступает другим роботам и программам в частоте посещения сайтов?
Получается сейчас весь контент сайтов отдан на "откуп" яндексу, mail.ru, и другим ребятам...Предполагаем, что такое не равномерное посещения сайтов "Роботами" создает определенные риски для поддержания актуальности и сохранения "оригинальности" контента для его ранжирования алгоритмами Google и для последующей поисковой выдачи. Это также влияет на трафик и позиции в поиске...
Хорошо, что можно предпринять, какие выводы и какую выбрать тактику? Пока напрашивается решение:
1. Продолжать размещать внешние ссылки, чтобы googlebot чаще переходил на сайт.
2. Использовать Search console для ручной отправки Googlebot на сайт после изменений.
3. Попробовать "тонкую аккуратную" настройку веб сервера, чтобы уровнять частоту посещений Ботами сайта..."Уровнять шансы и возможности" - Ну чтобы Googlebot не проигрывал другим Ботам и "парсерам" =).
Так хотя бы можно попытаться сохранить наработанные "очки", трафик и позиции. Все зависит от сферы и тематики, смотреть и делать по статистике очень аккуратно...