- 1. Знайте, где лягушка имеет завитки - отчеты и массовый экспорт
- Все ссылки на 404 ошибки с первого взгляда и многое другое
- 2. Проанализируйте внутреннюю ссылку, глубину ссылки и время отклика
- Структура сайта:
- Время отклика:
- 3. Положить конец внутреннему дублированию контента домена
- 4. Сканирование списков URL и файлов сайтов - с помощью «Режима списка»
- Режим списка для задач помимо обычных отчетов:
- Примеры применения:
- Режим SERP - выявление потенциалов для оптимизации заголовка
- 5. Используйте пользовательские фильтры, чтобы найти целевой контент и ошибки
- Некоторые конкретные примеры применения:
- Возможности бесконечны

1. Знайте, где лягушка имеет завитки - отчеты и массовый экспорт
Каждый знает, как быстро и легко найти дубликаты дорожек или 404 ошибки с помощью Screaming Frog. Большинство также знают, что результаты сканирования можно удобно экспортировать в форматы .csv или .xls:
Работа с Excel на следующем шаге имеет много преимуществ: фильтруйте, сортируйте, экспортируйте, отправляйте. Тем не менее, вот функция Screaming Frog, предназначенная для использования в качестве каламбура, для вывода списка ссылок на URL-адреса. Так как же получить четкий отчет на всех 404 страницах, включая ссылки?
Все ссылки на 404 ошибки с первого взгляда и многое другое
В главном меню в разделе « Массовый экспорт » вы выбираете в разделе « Коды ответа » отчет « Клиентские ошибки (4xx) Inlinks ». Здесь у лягушки есть кудри! Вы получаете отчет обо всех ссылках на все URL просканированного домена в формате .csv или .xls. И в том числе якорные тексты. Другая возможность состоит в том, чтобы отфильтровать в Excel пакетный экспорт «Все ссылки» после кода состояния 404 и вуаля - Все в ссылках на 404 ошибки с первого взгляда.
Я также хотел бы рекомендовать следующий экспорт из поля «Отчеты»:
- Цепочки перенаправления: раскрывают все цепочки пересылки (например, цепочки http) - отличная основа для оптимизации ссылочного сока.
- Обзор сканирования: дает вам все результаты сканирования из правого обзорного окна в виде .csv / .xls - хорошо подходит для базы данных для анализа.
- Канонические ошибки: сразу выкладывает все канонические ошибки просканированного домена - отличный обзор, чтобы избежать грубых ошибок.
- Небезопасный контент: показывает все ресурсы и целевые объекты ссылок, все еще работающие через http - идеально для управления повторным запуском.
2. Проанализируйте внутреннюю ссылку, глубину ссылки и время отклика
Кричащая лягушка также идеально подходит для технический анализ домен. По умолчанию вкладка «Обзор» открывается в правом боковом окне. За ним находятся вкладки « Структура сайта » и « Время отклика ».
Структура сайта:
Здесь вы найдете полезную информацию для внутренних ссылок и структура сайта , В верхней части окна находятся 20 самых внутренних страниц домена. Эта статистика может помочь обеспечить отправную точку для оптимизации внутренних ссылок. Внизу окно для глубины ссылки в данных и визуализированной форме:
Глубина ссылки 0 - это домашняя страница, а URL-адреса с глубиной ссылки 1 находятся в категории ниже. Соответственно, URL со значением 2 формы будет иметь вид: www.gespidertedomain.de/kategorie/url. Этот анализ может помочь лучше понять всю структуру веб-страницы или определить очень глубоко скрытые страницы в структуре, которые трудно охватить сканеру (бюджет сканирования ключевых слов). Чтобы получить список очень низких URL-адресов, просто экспортируйте все внутренние элементы HTML и выполните сортировку / фильтрацию в Excel по уровню .
Время отклика:
Вкладка Response Times содержит оценку времени ответа сервера для просканированных URL:
Это может быть довольно pratkisch для анализа общего времени отклика сервера или для выявления паршивых овец, которые имеют очень большое время отклика. Чтобы получить список URL-адресов с длительным временем отклика, просто экспортируйте все внутренние элементы HTML и выполните сортировку / фильтрацию в Excel по времени отклика .
Pro Совет:
С помощью отчета « Массовый экспорт » « Все входящие ссылки » вы не только получите подробную информацию обо всех ссылках на проблемные случаи - отчет также может быть использован для точного анализа внутренних ссылок. Здесь есть возможности, например, отфильтровать целевые ссылки для конкретных URL-адресов, а затем проанализировать количество ссылок.
Столь же мощным является отчет « Массовый экспорт> Весь текст привязки ». Этот отчет дает отличный обзор всех использованных текстов привязки и раскрывает его истинную силу путем фильтрации данных.
3. Положить конец внутреннему дублированию контента домена
У лягушки надежный путь Дублированный контент выследить - даже на больших доменах. Это работает путем сопоставления хеш-значений. Просто экспортируйте все URL-адреса в документы HTML во внутреннем> отчете HTML . Затем в Excel в столбце « Хэш » выделите двойные значения цветом. В Excel вы найдете эту функцию на вкладке « Пуск » в разделе « Условное форматирование> Правила выделения ячеек > Дублирующие значения ». В области фильтрации данных теперь также можно сортировать по цвету ячейки (« Фильтр> Фильтр по цвету »). Если здесь URL-адреса с noindex, canonical или параметрами снижают релевантность результатов, их можно просто отфильтровать заранее в Excel или перед самим пауком. быть исключенным из сканирования ,
4. Сканирование списков URL и файлов сайтов - с помощью «Режима списка»
У Screaming Frog есть не только типичная функция Spider. Под пунктом меню « Режим » в главном меню вы найдете три режима:
- Spider: сканирует введенный домен и переходит по его внутренним ссылкам
- Список: сканирует сохраненный список URL
- SERP: здесь вы можете загрузить список мета-заголовков и описаний для определения ширины пикселя (функция также доступна для отдельных URL-адресов на вкладке « Фрагмент SERP » в окне информации о URL-адресе ниже - полезно для Название Оптимизация )
Режим списка для задач помимо обычных отчетов:
Каждый SEO уже использовал функцию Spider. Но в некоторых случаях « Режим списка » может быть очень полезным. Здесь вы просто загружаете список URL, которые будут сканироваться. URL-адреса могут быть извлечены из файлов, для каждой копии + вставки или введены вручную. Или - и это, безусловно, самый крутой вариант из всех - их можно извлечь непосредственно из карты сайта по URL-адресу с помощью функции « Скачать карту сайта ». Это не могло быть лучше.
Примеры применения:
- Сканирование карты сайта домена
- Просматривать только самые релевантные страницы домена
- Определите URL с 404-ответом в файле Sitemap.
- Проверьте коды статуса URL-адресов оптом
- Проверьте коды статуса обратных ссылок (очень круто, чтобы раскрыть потенциал, подробнее об этом в будущем)
Совет. Создайте файлы Sitemap для XML с помощью Screaming Frog
Функция создания карты сайта находится в разделе " Sitemaps " в главном меню.
Здесь вы можете точно выбрать, хотите ли вы записать канонические, постраничные страницы или страницы, отмеченные наградами noindex .
Приоритеты и даты изменения и все остальное также могут быть установлены. Вкратце: здесь вы найдете все, что вам нужно.
Режим SERP - выявление потенциалов для оптимизации заголовка
С помощью фильтрации в Excel из отчета о сканировании карты сайта экспортируйте все мета-титры и мета-описания в URL-адреса, а затем отправьте их обратно через « режим SERP ». Таким образом, вы можете сразу увидеть все релевантные URL, чьи мета-фрагменты имеют слишком много пикселей: замечательный краткий обзор, чтобы найти потенциал для оптимизации фрагментов.
5. Используйте пользовательские фильтры, чтобы найти целевой контент и ошибки
Если вам этого было недостаточно, вы должны взглянуть на « Пользовательские фильтры ». Пользовательские фильтры выполняют поиск в исходном коде HTML страницы и поэтому должны быть определены перед сканированием . С их помощью вы можете найти и даже извлечь URL, которые соответствуют фильтру. Возможности найти определенные целевые URL вашего домена практически безграничны: здесь все зависит от того, насколько хорошо вы знаете свой домен. Хорошим приложением для Custom Filter является обнаружение ошибок Soft-404 (короткие: страницы без содержимого, но с 200 Satuscode, а не 404er). Обязательным условием, конечно, является то, что вы можете сузить эти страницы, используя фрагмент кода.
Некоторые конкретные примеры применения:
- Фильтр 1: Поиск страниц с отсутствующим schema.org Аннотация (здесь отсутствует og: ценник)
- Фильтр 2: найдите мягкие 404 страницы (если вы знаете, какой текст будет напечатан на них)
- Фильтр 3 и 4: поиск страниц с определенным якорным текстом и страниц с определенной целью ссылки. Из пересечения этих двух результатов фильтрации можно было бы создать в Excel путем взаимного исключения список, в котором раскрыты потенциалы для внутренней ссылки .
Возможности бесконечны
Эти 5 советов должны были быть на любой вкус. Фактически, сканер из хорошего британского дома может сделать намного больше, чем мы предлагаем здесь: сканирование прокси, перезапись URL, сканирование с использованием языка accept в заголовке, подключение Search Console и Analytics API, анализ неработающих потенциалов обратных ссылок. И т.д. ETC Возможности использования кричащей лягушки безграничны. Какие советы и хитрости вы знаете с Screaming Frog? Не будь лягушкой и напиши это в комментариях!