прикол что акцент в статье сделан на технические ошибки - это вообще самый несущественный фактор ... сколько я исправляла "критических ошибок" с микроразметкой по SC, битые внутренние ссылки, повышала скорость и прочего ... никакого хоть сколько-нибудь заметного эффекта
Вы правы. Тех часть - не единственная, и, в большинстве тематик, недоминирующая группа факторов. Это узкая ниша, у сайта был возраст страниц в индексе. Совокупность факторов технической части и текстовой оптимизации дала результат. В неконкурентных нишах, это будет работать. В конкурентных нишах, нужно делать больше и больше времени на результат.
прикол что акцент в статье сделан на технические ошибки - это вообще самый несущественный фактор ... сколько я исправляла "критических ошибок" с микроразметкой по SC, битые внутренние ссылки, повышала скорость и прочего ... никакого хоть сколько-нибудь заметного эффекта
Вы правы. Тех часть - не единственная, и, в большинстве тематик, недоминирующая группа факторов. Это узкая ниша, у сайта был возраст страниц в индексе. Совокупность факторов технической части и текстовой оптимизации дала результат. В неконкурентных нишах, это будет работать. В конкурентных нишах, нужно делать больше и больше времени на результат.
Отличный результат! Нормально делай - нормально будет!
Полностью согласны с Вами!
А зачем параметры-то закрывали в robots? Их склеивать надо, а не блокировать.
Да, в компании по регламенту можно делать как в кейсе, и как Вы сказали. То есть делаем
1. Каноническую ссылку в коде страницу на нужную страницу
2. Далее либо закрываем в robots.txt,
Disallow: /*?view
либо пишем
Clean-param: view
Интересно