Зачем отдавать в индекс тысячи одинаковых страниц пагинации тем самым израсходуя краулинговый бюджет на не продвигаемые страницы?
1. Они не одинаковые, хотя бы потому, что на них разный набор товаров + с пагинации как правило убирают текстовые блоки
2. Для улучшения внутренней перелинковки, чтобы глубоко вложенные товары имели внутренние ссылки.
Судя по этой статье вы предлагаете продвигать страницы дублированного контента а зачем?
Страницы в индексе != страницы на которые мы хотим получать трафик
при первом парсинге контента разметка не будет просканирована
Потому что разметка обёрнута в тег <script>? Но мы же не добавляем ее на лету в момент загрузки страницы, она приходит вместе с исходным html, т.е. не попадёт в очередь отрисовки ?
Я бы предпочёл написать несколько правил формирования ХК, чем вручную формировать и размещать скрипты на каждой странице. Не забывайте ещё, что могут появляться новые страницы на сайте.
Но это же не от типа разметки зависит, а от того как вы ее внедрите
Опытный человек скажет, что JSON-LD тоже можно автоматизировать. Да, но зачем плодить лишние элементы на сайте. ХК и так есть на сайте нужно только снабдить ХК выводом микроразметки.
То же самое можно сказать про разметку товаров, которую чуть выше по тексту вы рекомендуете делать с помощью json ld. Вся информация по товару уже есть на странице, ее просто нужно обернуть в соответсвующие теги.
В любом случае, за статью спасибо.
Реализации Хлебных крошек на JSON-LD хуже автоматизации с помощью создания вывода микроразметки Breacrumbs в разметке сайта.
Почему?
простите, но
Открыть редирект это неестественное для поисковой машины поведение
Яндекс бот спокойно обрабатывает до 7-8 редиректов в цепочке.
Тогда в чем дело?
Негатив почти всегда собирает больше кликов и трафика, чем «обычные» новости.
Руководство Яндекса сейчас
кажется что-то пошло не так
зайти не смог из-за развалившейся верстки, но по скринам не хватает разбивки по типа соединения и гео, типа https://treo.sh/sitespeed/vc.ru
Сделать это так как вы говорите нельзя, так как на сервисе ограничена бесплатная проверка, и проверять что-то незалогинившись в приличных объёмах нельзя.
Спойлер — текст будет неуникальным, будет показывать те же сайты что и у второго (расширенного) текста.
По заспамленности не подскажу, в отличии от уникальности, тут алгоритмов подсчета куча.
Но в любом случае, что уникальность, что заспамленность — это все ловля блох. Если мы говорим про seo тексты, то решает раскрытие темы, структура текста и его оформление.
удалено
А теперь, для чистоты эксперимента, возьмите ваш 100% текст и отправьте его на проверку еще раз. В инкогнито и не заходя в аккаунт.
В целом нет ничего удивительного, если представлять как работают подобного рода алгоритмы: текст бьётся на небольшие последовательности слов (шингл) → каждая последовательность отправляется в поиск, таким образом формируется список документов для сравнения → каждая последовательность ищется в этих документах
Расширив исходный текст вы увеличиваете кол-во и разнообразие шинглов → увеличивается вероятность, что набор документов для сравнения будет больше/разнообразнее → больше вероятность что будут совпадения с вашим текстом.
Да я вам и не предъявляю особо, каждый продвигает как хочет, умеет и может, свободная страна.
Просто глаз зацепился за то, что частотным показываете запрос таким не являющимся, не смог пройти мимо.
Считайте проф. деформацией ¯\_(ツ)_/¯
Вывести НЧ ключ в топ много ума не надо, достаточно нескольких точных вхождений в нужных зонах документа, собственно у вас по такому принципу статья и написана.
https://www.nimax.ru
— Дашь списать домашку?
— Да, только не списывай точь-в-точь
«Яндекс.Дзен» начнёт продюсировать блогеров платформы
«Яндекс.Дзен» начнёт сжигать деньги в печах, поправил, не благодарите
Тигран Худавердян сообщил, что «Яндекс» договорилась с Huawei, Honor, Xiaomi, Vivo, ZTE, F Plus, Meizu и Prestigio не делать приложения компании неудаляемыми.
А, так на самом деле царь то хороший, это бояре плохие. Ну да, ну да
https://profi.ru/documents/confidential/ — 4 абзац
а то что юрлицо другое это ни о чем не говорит, там сложная цепочка, просто поверьте что это плюс минус одни и те же люди
причём данные не стянули, а профи.ру их именно отдал зуну
волшебные seo-работы не обеспечат прирост трафика и присутствие в топи дальше 3 из 4 пунктов это именно что работы по seo
Уже есть куча готовых решений, например ondoc. Проблема в том что клиники зачастую не готовы/не хотят эти заниматься. Причём доходит до абсурда — приложение клиники сделано на основе ondoc, функционал записи к врачу и прочее работает исправно. История посещений, результаты анализов и т.д. — нет, потому что клинике лень/нет ресурсов все это вести.
Андрей, простите что не совсем по теме статьи, но вам что-то нужно делать со стабильностью(?) ваших продуктов. Что скрэйпер, что сайтаналайзер не справляется с сайтами больше 500К страниц (ИМ чуть больше среднего). Уже не первый раз оставляю работать на ночь, прихожу утром и вижу что приложение упало.
По функционалу и скорости работы ваши решения мне нравятся сильно больше, чем аналоги. Ровно то, что нужно и ничего лишнего. Но каждый раз после тестов приходится возвращаться к нетпикам/датаколам, обидно.
Статья — бриллиант, спасибо большое
Алексей, если не сложно, можете сделать подобный скрин только из отчета «Содержание» > «Страницы входа». И там развернуть до второго уровня. Интересно сравнить поведенческие на блоге и на коммерческих страницах.
Если не секрет, почему вас так это удивляет?
В топ по каким запросам? Частоту заранее пробивали? Если там нулевики по вордстату, то неудивительно что с них нет заказов. Понятно что сейчас это уже поздно, просто интересно.
А про то, что в теме много контекстной рекламы и надеяться на органику нет смысла, я с вами не соглашусь. Сейчас в любой теме ее много, одна из задач seo специалиста как раз подобрать семантику так, чтобы она была не нулевая и там было минимум рекламы/колдунщиков поиска. Был опыт как с b2c так и с b2b проектами — общие запросы вида «купить/заказать {что-то} в спб/москве/ваш город» уже давно не приводят клиентов, нужно собирать много коммерческой микрочастотки и прорабатывать ее.
Вам не повезло с агентством — всячески сочувствую, но, возможно, рано пока хоронить поиск как один из каналов привлечения трафика.
Фу быть той студией, что занималась сайтом (для всех любопытствующих есть лого в подвале), но частично вы и сами виноваты в сложившейся ситуации. Нужно было на берегу обговаривать, что именно вы хотите получить от сайта. Если договаривались на позиции/трафик, то по заранее обговоренному пулу запросов/страниц. А не мифическое «сделать хорошо» (во всяком случае такое сложилось впечатление от статьи).
Ну и трафик на сайт без блога – это боль, конечно
Вопрос, немного не по теме, но всегда было интересно: какая у вас планируется бизнес модель? Вы делаете кучу крутых и при этом бесплатных инструментов, на голом энтузиазме такое вряд ли возможно. Планируете потом делать платную версию по модели того же нетпика или скриминг фрога?
эмулировать прокрутку != работать с js
и да, гугл не скролит страницу в привычном нам понимании
и уж тем более он не нажимает на кнопки на странице
https://ipullrank.com/javascript-seo-how-google-crawls-and-indexes-javascript-websites#:~:text=Googlebot%20supports%20lazy%2Dloading%2C%20but%20it%20does%20not%20scroll%20as%20a%20human%20user%20would.
https://www.searchenginejournal.com/googlebot-doesnt-click-on-buttons-what-to-use-instead/400242/