Дубли связанные с комментариями из-за настроек Word Press

Дубли связанные с комментариями появились на этом блоге, в начале его ведения. Нашла их в инструментах вебмастеров Google. Путь к этим адресам: «вид в поиске» > «оптимизация HTML». Открывается одноименная, новая страница. Здесь могут быть указаны наши различные ошибки. Например, повторяющиеся метаописания, длинные, короткие заголовки.

дубли связанные с комментариями

Дубли связанные с комментариями — причины появления

Например, повторяющихся заголовки встречаются для каждой статьи по 2 или 3 различных названия. Но все эти заголовки действующие, каждый хорошо открывается в браузере. Есть другие виды, например, у меня встречались заголовки, с одним и тем же названием. Некоторые  из них были с припиской:/comment – page-1/. Это и есть дубли, связанные с настройкой комментариев.

На вкладке «настройки Word Press», есть раздел «обсуждение», где предлагается разбивать комментарии на страницы.Причиной появления дублей этого характера являются сделанные мною настройки Word Press. Пришлось это исправить, хотя они еще потом долго оставались в индексах. В админ панеле находим: «настройки» и перейдем во вкладку «обсуждения». Здесь есть опция: «Разбивать комментарии верхнего уровня на страницы».

настройки Word press обсуждение

Вначале  отмечала галочкой и поставила число 50. Подумала, что на одну страницу может входить 50 комментариев. Но потом посчитала, что на одной веб. странице размещается только двадцать комментариев. Значит двадцать первый комментарий, уже уйдет на страницу 2.

Но у Word Press  логика другая. Например, страница   в количестве 20 пунктов – вполне законченный продукт. Как раз получается статья с адресом +/ comment – page – 1/. Вот где рождаются дубли страниц. Если отзывов станет 40, тогда будет URL+ comment-page-2/ и так далее. На сайте «Наш дом и дача» этот чекбокс не отмечен совсем. Но скорее случайно, потому что эти премудрости   позже узнала. Убираю на «Любимом блоге» отметку в чек боксе и сохраняю новые настройки.

Удаление из поисковых индексов

У себя на сайте это проще сделать. Удалить из индексов технически не сложно, но утомительно. Но  главное, что они удаляются поисковыми системами очень медленно. Это длительно мешает продвижению сайта.

Плохи  они  для сайта, по многим причинам. Например, роботы тратят лишнее время на разбирательство с одинаковыми страницами. В результате  могут проиндексировать дубли вместо канонических адресов. Перелинковка сайта становится не правильной. Потому  что ссылки делятся между основным документом и его дублями.

Давно их заметила и запрещала в файле robots txt, но оказывается в этом файле запрещать нельзя все, как угодно. Запрещающие теги нужно правильно записывать, иначе они могут остаться не распознанными.  Сейчас переписала правильно: Disallow:*/comment-page-*, проверила файл robots.txt в Яндекс вебмастере — все правильно, ошибок нет.

Кроме того, продолжаю копировать ссылки повторяющихся адресов  и удаляю их. Технически это похоже на удаление ошибок 404. Со времени написания статьи в Coogle произошли некоторые изменения, удаление стало проще. Вначале, в панеле инструментов слева находим ссылку: «ошибки сканирования». Нажимаем правую кнопку, находим «копировать». Копируем адрес с дублем, затем, в панеле инструментов, нажимаем опцию «Индекс Google». В выпадающем списке находим опцию «удалить URL». Откроется новое окно где есть строка: «создать запрос для удаления». В эту строку вставляем скопированный URL, «продолжить» и «отправить запрос» на удаление.

Оставить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Этот сайт использует Akismet для борьбы со спамом. Узнайте, как обрабатываются ваши данные комментариев.

Что будем искать? Например,Человек

Мы в социальных сетях