17.01.2018      220      2
 

Screaming Frog SEO spider анализ интернет ресурсов


Screaming Frog SEO spider программа для анализа интернет ресурсов, есть бесплатная версия и платная расширенная. В этой версии можно проверку не такого уж маленького  сайта – 500 адресов. От платной она отличается тем, что опции настроек в ней не активны, в связи с этим она менее гибкая, нельзя выбрать или исключить некоторые параметры. Однако сайт проверить можно, по многим показателям. Создали эту программу программисты Великобритании в 2010 году, язык в ней английский, но блогерам понятно, что анализируется. Пользуются ею вебмастера успешно до настоящего времени для аудита сайтов.screaming frog SEO Spider

Screaming Frog SEO spider вкладки программы

Скачать программу можно здесь  Авторы называют ее «кричащая или пищащая лягушка». Полный адрес сайта впишем в верхней строке, список ссылок появится очень быстро.

строка для адресаНастроек в бесплатной версии нет, но есть фильтры, которые увидим из выпадающего меню.

фильтры программыБуду приводить пример анализа своего интернет ресурса. Вначале у меня был фильтр all – все, появились адреса вперемешку, не только статей, с кодом ответа сервера 200, но и картинок, с ответом  «0», потому что индексация изображений у меня запрещена плагином Clearfy pro. Мне нужно подумать о том, чтобы на сайте постепенно удалять ссылки на большие картинки внутри статей, которые были подписаны все, в начале ведения блога.показаны все адреса

Перейдем в фильтр html, в этом случае картинки будут скрыты и останутся только адреса статей, это внутренние ссылки –internal. Просмотрим их, у меня проиндексированы все статьи, есть кое-что для удаления – об этом ниже.

Нажмем кнопку external – это внешние ссылки, которые попали в индекс с адресом нашего сайта. У меня их две, их лучше удалить, для этого  открываю вебмастер Google  и произвожу удаление  не нужных ссылок. Без прогаммы Screaming Frog SEO spider никогда бы не догадалась о существовании таких ссылок, в адресе блога. внешние ссылки

 Screaming frog seo spider анализ интернет ресурсов — вкладки – protocol, response codes, URL, page titles

  • На вкладке протокол нужно просмотреть, чтобы у всех адресов было https, у меня так и есть, все 500 адресов в порядке.
  • Response codes – просмотрим все адреса, применяя фильтр.
  • Вкладка Brocked by robots.txt – у меня заблокировано 330 картинок. Здесь нет прямого перехода из программы на сайт, но адрес можно выделить и скопировать. Знаю и без программы, с каких картинок нужно убрать ссылки, но есть возможность контроля в screaming frog seo spider.
  • Success (2xx) код ответа у меня в ПС Google оказался 200 почти во всех статьях, лишь один адрес с редиректом 301. Интересно, что в Яндексе у меня на этом сайте ответов 301 в 3 раза больше чем всего написанных статей. Возможно в Яндексе больше ссылок на мои старые статьи, или другая причина.
  • Никаких других видов редиректов /java script,meta refresh /у меня не оказалось, ошибок 404 и 500 тоже не выявлено. В Яндексе всех ошибок полно, сохраняется в статистике- не очень понимаю, для чего это хранить.
  • Url – фильтры параметров, есть только all, других не оказалось, в свое время решала проблемы индексации параметров.
  • Page titles – все адреса в порядке, дубликаты – вот здесь-то есть что удалить. Несмотря на то, что все удалялось множество раз, в индексе до настоящего времени находятся 8 страниц /page/, копирую по одному адресу, перехожу в вебмастер Гугл и удаляю.дубликаты
  • Over 65 characters таких адресов у меня оказалось 24, можно посмотреть количество знаков в заголовке и величину заголовка в пикселях. У меня не оказалось превышенных величин, слишком маленьких совсем нет.

Screaming Frog SEO spider мета теги

  • Meta Description, нажимая эту опцию, получаем список своих статей с описаниями. Совсем недавно заменила свой простой плагин SEO на Yoast WP SEO, плагин транспортер очень плохо перенес описания статей, почти нигде ничего нет, мне предстоит большая работа, по восстановлению описаний. Что делать, не первый раз.
  • Meta Keywords у меня нет, в Гугле уже давно ключевые слова не спрашивают.
  • Заголовок h1 — так же появляется весь список статей, здесь у меня порядок, h2 –  то же самое. Картинки images у меня страница пуста из-за запрета.

Директивы

Мета-тег robots —  вначале записано noindex follow для категорий и страниц, а потом –noindex nofollow. Так и было, мета -тег  был установлен позже. Кроме ряда страниц в индексе Google присутствуют и категории, которые часто удаляю, но они вновь появляются.

Другие вкладки

  • Hreflang – Это таблица для файлов Sitemap . Здесь файл можно проверить, закачав со своего компьютера — это не проверяю.
  • Ajax, gustom, analitytics, search console, link metrics – все страницы открылись пустыми.


Об авторе: Ксенья Юрьевна Бастрикова

Обсуждение: 2 комментария
  1. Сергей:

    очень интересный ресурс. Добавлю в свои закладки, пригодиться однозначно.

  2. Александр:

    Пользуюсь бесплатной версией, мне этого вполне достаточно.

Ваш комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *

Для отправки комментария, поставьте отметку, что разрешаете сбор и обработку ваших персональных данных . Политика конфиденциальности

Поиск Яндекса

Ксения Юрьевна Бастрикова
Я автор этого блога, присоединяйтесь ко мне в G+ по ссылке под фотографией.
скрипт против дублей

Мощный SEO плагин Clearfy