Не найдено

"SEO-вскрытие": обзор программы Screaming Frog SEO Spider

Опубликовано: 30.10.2017

Оптимизация сайтов представляется практически невозможной без привлечения специализированного инструментария — приложений, осуществляющих поиск по заданному сайту, выявляющих и устраняющих ошибки.

Одним из самых популярных приложений такого рода была программа Xenu Link Sleuth , изначально ориентированная на поиск битых ссылок и неуникальных заголовков на сайте, однако обладающая рядом дополнительных функций, позволяющих проводить развернутый аудит внутренней структуры сайта. А в 2011 году британский seo-специалист представил миру собственный продукт под названием Screaming Frog SEO Spider: приложение, представляющее собой, по сути, аналог Xenu, но с куда более расширенным функционалом.

Screaming Frog SEO Spider является платным ПО, лицензия стоит 99 фунтов стерлингов. Однако можно скачать бесплатную ознакомительную версию, функциональность которой ограничена: количество сканируемых урлов ограничено до 500 штук, активны не все опции конфигурирования, отсутствует возможность осуществлять кастомную настройку поиска и сохранять результаты сканирования. Однако и в ознакомительном режиме вы сможете и проверить ответы сервера, и подсчитать ссылки, выделив битые или неуникальные, и проанализировать код — что в большинстве случаев достаточно для проверки. В настоящем обзоре мы рассмотрим полную версию приложения.

Интерфейс программы интуитивно понятен. Запустив приложение, следует ввести в пустую строку в верхней части окна адрес URL и нажать кнопку «Старт».

Программа начнет парсить указанный сайт, используя механизм, аналогичный поисковому роботу Google. Результаты проверки по всем обнаруженным в ее ходе адресам отображаются в таблице внизу и могут быть отсортированы с разными фильтрами. Для удобства работы с результатами они также разбиты на вкладки, переключение между которыми происходит вверху таблицы.

Первая вкладка, открытая по умолчанию — вкладка Internal , отображающая основные полученные в ходе проверки данные (тип контента, код ответа веб-сервера, описание страницы и пр.) по каждому урлу. Результаты сгруппированы в виде таблицы, где каждая строка — отдельный адрес, а столбцы — его характеристики. Таблицу можно отфильтровать по любому из столбцов, просто кликнув на него. При выделении любой из строк в нижней части окна программы можно увидеть информацию по этому адресу.

Следующая вкладка — External , которая выводит список внешних ресурсов, ссылки на которые находятся на вашем сайте.

Далее — вкладка Response Codes , отображающая заголовки HTTP страниц исследуемого сайта. Результаты можно отфильтровать.

На вкладке URL будут собраны проблемные урлы сайта: с некорректными символами, дублированные, использующие динамические адреса и пр.

Вкладка Page Titles особенно полезна в плане исследования заголовков страниц. В результате проверки на эту вкладку попадают следующие страницы:

• Не имеющие заголовков.

• Имеющие идентичные заголовки.

• Имеющие заголовки длиннее 70 символов.

• Имеющие заголовки, совпадающие с H1 заголовками.

На вкладке Meta Description выводятся результаты по описанию страниц по тэгу Description, включая его длину, дубли или отсутствие.

Вкладка Meta Keywords выдает результаты по содержимому тэга Keywords каждой страницы.

Вкладки H1 и H2 соответственно отображают результаты по всем заголовкам H1 и H2, найденным на каждой странице сайта.

Вкладка Images выводит список картинок сайта, отдельно указывая их вес, что ценно для определения возможности увеличения скорости загрузки сайта.

И, наконец, вкладка Meta&Canonical , как можно догадаться, отображает параметры meta robots и rel=canonical на всех найденных страницах.

Результаты поиска, выведенные в каждой из вкладок, при необходимости можно экспортировать в файл Excel для последующего анализа.

Вердикт : в целом благодаря этому приложению на полный аудит сайта и устранение слабых его мест может требоваться не более 15-20 минут, и, скажем прямо, отнюдь не энциклопедические знания.

3D стерео фильмы для 5D
rss