Aleksey Anisin

+153
с 2019
2 подписчика
27 подписок

Зачем отдавать в индекс тысячи одинаковых страниц пагинации тем самым израсходуя краулинговый бюджет на не продвигаемые страницы?

1. Они не одинаковые, хотя бы потому, что на них разный набор товаров + с пагинации как правило убирают текстовые блоки
2. Для улучшения внутренней перелинковки, чтобы глубоко вложенные товары имели внутренние ссылки.

Судя по этой статье вы предлагаете продвигать страницы дублированного контента а зачем?

Страницы в индексе != страницы на которые мы хотим получать трафик

при первом парсинге контента разметка не будет просканирована

Потому что разметка обёрнута в тег <script>? Но мы же не добавляем ее на лету в момент загрузки страницы, она приходит вместе с исходным html, т.е. не попадёт в очередь отрисовки ?

Я бы предпочёл написать несколько правил формирования ХК, чем вручную формировать и размещать скрипты на каждой странице. Не забывайте ещё, что могут появляться новые страницы на сайте.

Но это же не от типа разметки зависит, а от того как вы ее внедрите

Опытный человек скажет, что JSON-LD тоже можно автоматизировать. Да, но зачем плодить лишние элементы на сайте. ХК и так есть на сайте нужно только снабдить ХК выводом микроразметки.

То же самое можно сказать про разметку товаров, которую чуть выше по тексту вы рекомендуете делать с помощью json ld. Вся информация по товару уже есть на странице, ее просто нужно обернуть в соответсвующие теги.

В любом случае, за статью спасибо.

Реализации Хлебных крошек на JSON-LD хуже автоматизации с помощью создания вывода микроразметки Breacrumbs в разметке сайта.

Почему?

Открыть редирект это неестественное для поисковой машины поведение

Яндекс бот спокойно обрабатывает до 7-8 редиректов в цепочке.

Тогда в чем дело?

Негатив почти всегда собирает больше кликов и трафика, чем «обычные» новости.

1

кажется что-то пошло не так
зайти не смог из-за развалившейся верстки, но по скринам не хватает разбивки по типа соединения и гео, типа https://treo.sh/sitespeed/vc.ru 

1

Сделать это так как вы говорите нельзя, так как на сервисе ограничена бесплатная проверка, и проверять что-то незалогинившись в приличных объёмах нельзя.

Спойлер — текст будет неуникальным, будет показывать те же сайты что и у второго (расширенного) текста.

По заспамленности не подскажу, в отличии от уникальности, тут алгоритмов подсчета куча.
Но в любом случае, что уникальность, что заспамленность — это все ловля блох. Если мы говорим про seo тексты, то решает раскрытие темы, структура текста и его оформление.

А теперь, для чистоты эксперимента, возьмите ваш 100% текст и отправьте его на проверку еще раз. В инкогнито и не заходя в аккаунт. 

В целом нет ничего удивительного, если представлять как работают подобного рода алгоритмы: текст бьётся на небольшие последовательности слов (шингл) → каждая последовательность отправляется в поиск, таким образом формируется список документов для сравнения → каждая последовательность ищется в этих документах

Расширив исходный текст вы увеличиваете кол-во и разнообразие шинглов → увеличивается вероятность, что набор документов для сравнения будет больше/разнообразнее → больше вероятность что будут совпадения с вашим текстом.

1

Да я вам и не предъявляю особо, каждый продвигает как хочет, умеет и может, свободная страна. 
Просто глаз зацепился за то, что частотным показываете запрос таким не являющимся, не смог пройти мимо.
Считайте проф. деформацией  ¯\_(ツ)_/¯

2

Вывести НЧ ключ в топ много ума не надо, достаточно нескольких точных вхождений в нужных зонах документа, собственно у вас по такому принципу статья и написана.

1

 «Яндекс.Дзен» начнёт продюсировать блогеров платформы

«Яндекс.Дзен» начнёт сжигать деньги в печах, поправил, не благодарите

1

Тигран Худавердян сообщил, что «Яндекс» договорилась с Huawei, Honor, Xiaomi, Vivo, ZTE, F Plus, Meizu и Prestigio не делать приложения компании неудаляемыми.

А, так на самом деле царь то хороший, это бояре плохие. Ну да, ну да

1

https://profi.ru/documents/confidential/ — 4 абзац
а то что юрлицо другое это ни о чем не говорит, там сложная цепочка, просто поверьте что это плюс минус одни и те же люди
причём данные не стянули, а профи.ру их именно отдал зуну 

1

Zoon, profi.ru, упомянутый выше инфодоктор — это все одни и те же люди, скорее всего у вас есть профиль на profi.ru, оттуда информация и подтянулась.

 волшебные seo-работы не обеспечат прирост трафика и присутствие в топи дальше 3 из 4 пунктов это именно что работы по seo

1

Уже есть куча готовых решений, например ondoc. Проблема в том что клиники зачастую не готовы/не хотят эти заниматься. Причём доходит до абсурда — приложение клиники сделано на основе ondoc, функционал записи к врачу и прочее работает исправно. История посещений, результаты анализов и т.д. — нет, потому что клинике лень/нет ресурсов все это вести. 

Андрей, простите что не совсем по теме статьи, но вам что-то нужно делать со стабильностью(?) ваших продуктов. Что скрэйпер, что сайтаналайзер не справляется с сайтами больше 500К страниц (ИМ чуть больше среднего). Уже не первый раз оставляю работать на ночь, прихожу утром и вижу что приложение упало.
По функционалу и скорости работы ваши решения мне нравятся сильно больше, чем аналоги. Ровно то, что нужно и ничего лишнего. Но каждый раз после тестов приходится возвращаться к нетпикам/датаколам, обидно.

Алексей, если не сложно, можете сделать подобный скрин только из отчета «Содержание» > «Страницы входа». И там развернуть до второго уровня. Интересно сравнить поведенческие на блоге и на коммерческих страницах.

1

В топ по каким запросам? Частоту заранее пробивали? Если там нулевики по вордстату, то неудивительно что с них нет заказов. Понятно что сейчас это уже поздно, просто интересно.

А про то, что в теме много контекстной рекламы и надеяться на органику нет смысла, я с вами не соглашусь. Сейчас в любой теме ее много, одна из задач seo специалиста как раз подобрать семантику так, чтобы она была не нулевая и там было минимум рекламы/колдунщиков поиска. Был опыт как с b2c так и с b2b проектами — общие запросы вида «купить/заказать {что-то} в спб/москве/ваш город» уже давно не приводят клиентов, нужно собирать много коммерческой микрочастотки и прорабатывать ее.

Вам не повезло с агентством — всячески сочувствую, но, возможно, рано пока хоронить поиск как один из каналов привлечения трафика.

3

Фу быть той студией, что занималась сайтом (для всех любопытствующих есть лого в подвале), но частично вы и сами виноваты в сложившейся ситуации. Нужно было на берегу обговаривать, что именно вы хотите получить от сайта. Если договаривались на позиции/трафик, то по заранее обговоренному пулу запросов/страниц. А не мифическое «сделать хорошо» (во всяком случае такое сложилось впечатление от статьи).
Ну и трафик на сайт без блога – это боль, конечно

3

Вопрос, немного не по теме, но всегда было интересно: какая у вас планируется бизнес модель? Вы делаете кучу крутых и при этом бесплатных инструментов, на голом энтузиазме такое вряд ли возможно. Планируете потом делать платную версию по модели того же нетпика или скриминг фрога?