Программа Xenus находит все ссылки блога

Программа Xenus носит название: «Xenus Link Sleuth». Ее  создал немецкий программист для оценки состояния ссылок сайта. На моем компьютере программа всегда переводится на русский язык. Название программы можно вбить в браузер и скачать бесплатно, в формате zip. Распаковать в Win Rar. В открывшемся окне вписывается окно меньшего размера, где располагаются советы. Но это маленькое окно можно сразу закрыть, потому что все советы на иностранном языке. программа Xenus

Программа xenus -как пользоваться

Открытое окно программы

Например, для настройки количества каналов поиска ссылок, вначале нажимаем «Options». Затем выпадающую опцию — «Preferehces». В новом окне видим несколько опций с отмеченными чекбоксами. Все отметки оставляем и устанавливаем цифру, в скольких каналах будет происходить одновременный поиск ссылок.

По умолчанию скорость поиска программ в пределах 30, но у себя устанавливаю только цифру шесть. Однако вижу, что поиск ведется быстро, даже при этом значении. Эту цифру можно изменять в зависимости от мощности Интернета. Нажмем «ОК», «параметры», «настроены», чтобы исчезло маленькое окно.

количество каналов

Далее в большом окне нажмем кнопку «Fiele». Откроется другое небольшое окно. Здесь нам будет нужна верхняя строка «check URL». Впишем имя своего домена /без https/. Нажимаем «ОК» и начинается быстрый поиск ссылок сайта.

Через некоторое время, от начала поиска, появляется открытое окно. Оно содержит много ссылок сайта. Например, доступные ссылки обозначаются зеленым цветом. Не найденные — красным. Но на этот раз у меня нет ни одной красной ссылки. Однако, на моем первом сайте их было огромное количество.

Когда программа Xenus  заканчивает проверку ссылок, то появляется маленькое окошко с вопросами «да и нет». Например, при ответе «нет», нажав выбранный адрес правой кнопкой, мы сможем анализировать свои ссылки по нескольким параметрам.

ссылки сайта

Программа xenus — варианты переходов

Параметр — «Copi URL» — скопируем адрес на статью. После чего можем перенести наш адрес в запрос браузера.  В результате, найдем комментарии с покинутых хозяевами сайтов. Удалим эти комментарии со своего сайта, так как они создают ошибку 404 на нашем блоге. В результате нашла и удалила много комментариев, вместе с ошибкой.

Из опции «Open in Browser» – можно сразу перейти по ссылке на любой сайт через браузер. Однако, это почти ничего не дает для исправления битых ссылок. «Open in Google cache» — позволяет найти кэшированные сайты. Но это только трата своего времени.

«Open in Waiback Machine». Есть в Интернете такая машина, которая хранит архивы всех сайтов. Находила там удаленные статьи своего сайта, но практически мне это тоже не пригодилось. «Open in Alexa» – переход на соответствующий сервис.

«URL properties» – при нажатии, открывается окно, где указаны все связи выбранного адреса, с другими адресами. Только эту функцию  просто не освоила. Но возможно , она могла бы пригодиться, для ручной перелинковки сайта.

Дополнительные опции

При нажатии «да», программа Xenus открывает большое окно «Broken link report» со многими полезными опциями. Здесь можно провести анализ ссылок сайта. Например, есть ли ссылка  на любую статью.

Ссылки List of redirected URLs. У меня отмечается редирект 302 в 4 статьях, кроме того, в этих же статьях по 2 практически одинаковых заголовка. Второй заголовок с припиской к основной ссылке: comment-page -1 и это к каждой статье. То есть. это дубли, к которым поисковики отрицательно относятся. Ссылки показывают дубли документов — это выявляет программа Xenus.

Например, статьи неканонические. Это не та статья которую мы писали, но может быть только анонс, или варианты страниц с картинкой или с комментарием. Документы  Яндекс вебмастер объясняют, что в коде статьи, установлен rel=”canonical”.  Этот код Word Press прописывает на дублях сайта, в тегах link. Просмотрела все ссылки, которые в Яндекс вебмастере названы неканоническими и везде увидела приписку к заголовкам comment-page-1.

Программа Xenus помогла мне понять природу этих ссылок. Запрещаю comment-page-1 в файле robots txt: Disallow:/ comment-page-1. В принципе запрещение было правильным. В начале ведения сайта его неправильно прописала технически, но позже  это исправила.

Однако эти дубли во внутренних ссылках исчезают очень медленно и постепенно, несмотря на многочисленные попытки их удаления. Это медленно происходит в обеих основных ПС: в Яндекс вебмастере и в инструментах для веб мастеров Гугла. Позже узнала, что дубли появились из-за настроек разделения страниц в комментариях, на вкладке «обсуждение».

Локальные ссылки

Ссылки под заголовком: «Broken page-local links (also named ‘anchors’, ‘fragment identifiers’)». Оказались ссылками плагина Thumbie — теперь понятно, откуда у меня дубли статей появились. Хотя индексация плагинов в robots txt у меня давно запрещена, почему-то они попадают в индекс Гугла. Программа Xenus показывает ссылки моего сайта на feedburner, и здесь у меня множественные редиректы 301.

Следующие ссылки показаны под зарегистрированным номером аккаунта Гугл и здесь опять редиректы, но только — 302.

Итоговая таблица ссылок

Проверила выборочно – сайт по всем ссылкам. Выяснила, что все они хорошо открываются. Представлены ссылки на все внешние сайты, в том числе сайты комментаторов. Ссылки файла Sitemap xml. В результате программы приводится  итоговая таблица.

Несмотря на то, что мой сайт совсем небольшой, ссылок набралось  более 600. Но не все у меня идет гладко, самое плохое, что опять дубли долго находились в блоге. Радует только, что пока нет ни одной ошибки 404. Ссылки – это самые значимые элементы в Интернете и на любом сайте, программа Xenus позволяет выявить истинное положение дел.

Проверка сайта в 2019 году

Забыла совсем про эту программу, но как-то случайно ее опять открыла. Вновь скачала и стала проверять данный сайт. По моей вине здесь не должно было быть ошибок 404. Но сколько же их оказалось на самом деле!!!

Огромное количество в поисковой системе Гугл. Находятся какие- то линьки непонятные, фиды. В конце заголовков приписаны теги. Но это хотя бы не во всех случаях, а только в 21.

И пагинация вся сохранена. Но это уже не просто ошибки, а дублей не мало. Напомню, что в таком случае все тексты повторяются ни один раз. Это снижает продвижение сайта, не зря он у меня на одном месте стоит. Копировала ссылки из программы Xenus прямо целыми пачками. Вставляла в строку для удаления в Гугл вебмастере. Пока функция удаления все еще сохраняется в старом интерфейсе этого сервиса. За один вечер все ошибки удалить не смогла физически.

Еще удалила карты сайта с обеих блогов. Потому что поисковые системы делают замечания, что такое огромное количество ссылок на одной странице. Лишняя нагрузка на сайты. Навигация и так хорошая. Вверху расположено меню, со всеми категориями.

Оставить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Этот сайт использует Akismet для борьбы со спамом. Узнайте, как обрабатываются ваши данные комментариев.

Что будем искать? Например,Человек

Мы в социальных сетях