Screaming Frog SEO Spider - на что обратить внимание в анализе сайта
Screaming Frog SEO Spider используется в технической оптимизации сайта. Программа позволяет спарсить страницы сайта и получить данные по каждой странице.
Можно парсить сайт целиком
Mode - Spider
Либо спарсить данные по конкретным URL
Mode - List
Вот какие данные нам понадобятся для технической оптимизации
Битые ссылки
Bulk Export - Response Codes - Internal & External - Client Error (4xx) Inlinks
На выходе получается файл вида:
Нас интересуют 2 столбца - Source (На какой странице размещена битая ссылка) и Destination (Сама битая ссылка)
Ссылки с редиректом
Bulk Export - Response Codes - Internal & External - Redirection (3xx) Inlinks
На выходе получается файл вида:
Возникают сложности в SEO, которые мешают вам достичь успеха? Получите эксклюзивный гайд и эффективные решения в моем Telegram-канале: https://t.me/seoobuchenie.
Нас интересуют 2 столбца - Source (На какой странице размещена ссылка с редиректом) и Destination (Сама ссылка с редиректом)
Также мы можем получить страницу, на которую ведет редирект.
Для этого переходим на вкладку Responce Codes, фильтруем по Redirection (3xx)
На выходе получается файл вида:
Сначала необходимо отфильтровать страницы по столбцу Status Code. Нужен код 301.
Далее в столбце Address видим ссылку, которая редиректит на ссылку из столбца Redirect URL. В столбце Redirect URL указан окончательный адрес страниц после редиректов.
Внешние ссылки
Вкладка External
В файле будут указаны все исходящие с сайта ссылки.
Страницы, закрытые от индексации
Во вкладке Internal есть столбец Indexability
Если статус Non-Indexable, значит, страница не индексируется.
Нужно искать причину.
Самые распространенные - закрытие страницы в robots.txt либо закрытие метатегом meta name robots noindex.
Вкладка Responce Codes - фильтруем по Blocked by Robots.txt
Чтобы найти страницы, закрытые в meta name robots noindex:
Вкладка Directives - Фильтруем по Noindex
Дубли метатегов
Переходим во вкладки Page Titles, Meta Description, H1
Фильтруем по
Так найдем страницы без метатегов, с дублирующимися метатегами, со слишком объемными либо слишком короткими мета и тд.
Полный гайд по работе с кричащей лягушкой сео пауком.
1. Запускаешь Лягушку в режиме Spider
2. ждешь (молишься, чтобы на анализируемом сайте не было защиты и иных особенностей, из-з которых нужно лезть в настройки парсинга)
3. радуешься что сбор завершен
4. заходишь на каждую вкладку
5. смотришь что есть в выпадающем списке слева вверху
6. думаешь является ли это проблемой (самый сложный пункт, требует прикладывания мыслительных способностей)
7. если да - исправляешь
8, радуешься второй раз, т.к. технический аудит с помощью лягушки окончен
вторая часть будет?