Привет! Меня зовут Пётр. Я SEO с 12-летним опытом. Сейчас я работаю Head of SEO в Росэлторг. Мой скромный блог – https://t.me/seo_and_sem
Остается только верить)
ok ok
Прости, но я не понял вообще что ты написал.
Не могу согласиться. Поисковые системы научились краулить страницы с query-параметрами, и они могут индексировать даже сложные вариации фильтров.
Есть например интернет-магазин с кучей фильтров – цвет, размер, бренд и т.д., то комбинаций может быть просто гигантское количество. И, если все эти вариации остаются открытыми для индексации – это может перегружать краулинговый бюджет.
Кроме того, есть риск каннибализации. Если, допустим, на странице фильтра, который просто варьируется по какому-то незначительному атрибуту, нет уникального контента, а сама страница мало чем отличается от основной категории – зачем тратить на неё бюджет? Это просто "съест" ресурсы и, возможно, ухудшит общий ранжир сайта.
Но ключевой момент в том, что не все фильтры одинаково полезны. Если фильтр может стать полноценной категорией, как ты справедливо заметил, тогда его однозначно надо оптимизировать. Например, если есть спрос на "красные кроссовки" или "телефоны с 128 ГБ памяти", то такие страницы могут стать важными для пользователя. А вот страницы вроде "телефоны с весом от 150 до 160 грамм" вряд ли принесут трафик и будут полезны. В таких случаях действительно лучше закрыть эти вариации от индексации и сохранить краулинговый бюджет для более значимых страниц.
Да все поисковики все хуже и хуже день ото дня. Но за неимением лучшего – живем как есть)
Да нет конечно, я просто шуткую. Я же даже вам лайкос поставил)
Люблю людей, которые могут чётко и кратко излагать свои мысли. Полностью согласен с вышеизложенным.
Какой интересный у вас способ продвижения своей заметки =)
У нас с вами какие-то слишком разные выдачи)
Ну например если прокрутить выдачу после быстрых ответов =)
Ну тут просто два мнения. Но что интересно, сама страница хоть и не содержит вхождений, максимально релевантна запросу.
А вот это не понял "Ахахах. Инцыклапедия от икспертаф."
Ну спрашивают у Алисы, это да. Но вот где факт что она отдаёт правдивый ответ))
А GPT по сути огромная энциклопедия. Да и у него тоже много чего спрашивают голосом)
Что касается вашего скрина, изучил выдачу до 5 страницы и не вижу там такого варианта. Все очень даже релевантно
На моей практике люди спрашивают более сложные запросы, тот же GPT со мной согласен. А Алисе я не верю =)
Всегда пожалуйста) С крупными проектами работаю через маски, анализ конкурентов, парсинг семантики и т.д. Там уже намного больше профильных сервисов и инструментов. Большой проект — это от 10к ключей и выше, ну, по крайней мере, я так считаю.
LSI конечно. Мне автозамена поднасолила в статье знатно)) Не совсем понял ваше замечание по поводу "графа". В математике и информатике граф — это структура, состоящая из вершин (узлов) и рёбер (связей) между этими вершинами.
А как все в вашей?
Да да, я видел) Вот один пропущенный смайлик полностью перевернул мой коммент))
Вот тут полностью поддерживаю
Я читал и надеялся, что в конце вы скажете, что это шутка.
Понял точку зрения, но я немного о другом. Часто в компаниях вообще нет SEO, даже в крупных. Зато почти всегда есть PR отдел или что-то подобное. Статья больше для них. Специалисты понимают, что SEO нужно, но на хорошего специалиста денег может не быть. Так что они вроде бы выполняют свою работу, но могут по пути собрать какой-то трафик.
Если же мы говорим о создании контента с учётом SEO, то, конечно, сначала нужно собирать ключевые слова, смотреть их конкурентность, кластеризовать их, выявить интенты и одним словом искать алмаз в навозной куче)
Да, это действительно во многом про конверсию, и клиент не перескочит с одной ступеньки на другую просто так. Именно на этапе SEO мы можем привлечь пользователя и дальше вести его по всем этапам. Способов удержания на сайте много, и один из них – качественный контент.
Я не соглашусь, что методика устарела. Принципы, которые описал Бен Хант, по-прежнему актуальны, хоть и адаптируются под современные реалии. Рынок и пользовательские привычки меняются, но основа взаимодействия с клиентом остаётся прежней.
Написал же что это для маленьких и небольших проектов.
Стараюсь =)
Надоел кейколлектор. У меня мак и не хочу мучаться виндой радо этого инструмента. Да, забыл упомянуть про частотность, так как в этом проекте она не играет особой роли.
Предупредил специально для всех нелюбителей) Эта ссылка не была самоцелью статьи, просто решал вставить рас уж рассказываю)
Я, конечно, пробовал. Использовал и кейкол, и разные базы, даже Букварикс. За более чем 10 лет я попробовал множество вариантов. Но в итоге пришёл к такому решению. Да, это долго и нудно, но зато я получаю результат, в котором уверен на 100%
Да, мелочь важно, тут спору нет. Наверно стоит сделать дисклеймер что это семантика для быстрого старта. Своего рода MVP семантики. Но также важно учитывать что для интернет магазинов большая часть мелочи это просто конкретные товары или даже артикулы.
На самом деле не вижу очень уж кардинальных изменений в екомерце, первогаперво тут важна простая ширина и глубина семантики. Вот в статейниках там да. Там интернет и контекст парома имеет более весомую роль чем семантическая близость ключевиков. Там уже в ход идет естественный язык, голосовые запросы и всякие полумифические SLI да семантические графы с коконами.
Можете ли вы уточнить, что вы подразумеваете под "проработкой ключей"?
Я не вижу смысла в детальной проработке интентов и контекста для подобных проектов. Мы отсеяли информационные запросы, нулёвки и мусор. Поэтому мы уже можем создать структуру, которая будет на 90% корректной. Для многих главный фактор - это скорость. Мы переделаем структуру сайта на более корректную, пусть она пока индексируется, а затем мы уже можем заняться более детальной проработкой.
Красаучик
Не согласен. Я же показываю, на что ориентироваться и к чему стремиться.
На мой и по моей. Это же статья с указанным авторством – а значит тут субъективное мнение.