Метки для продвижения

Метки предназначены для пользователя, но поисковые системы приветствуют их наличие на сайте, поэтому метки для продвижения тоже полезны. Они нужны, чтобы быстро находить статьи одной темы, они не обязательно могут быть ключевыми словами. Вначале сделала много ошибок, сделав все ключевые слова метками после каждой статьи. Далее  все  исправила, и теперь ежедневно захожу в «Инструменты для веб мастеров» Google, ожидая, что будут нарастать ошибки 404, из-за исправлений.

метки для прожвижения

Метки для продвижения объединяют несколько статей

Понять, что  неправильно расставляю на сайте метки помог бесплатный SEO — аудит сайта в системе Мегаиндекс. Неожиданно для меня, Мегаиндекс зафиксировал много дублей заголовков H1. Стала разбираться, откуда дубли, один из источников нашла – это тег «метки».  Метками мы создаем еще один вход к нашей статье. Если мы поставили к одной статье несколько меток, то создали  не мало дублей, потому, что с каждым тегом создадутся  новые документы. Кроме самой статьи – документа первого вложения, Word Press создает документы второго и третьего вложений: анонсы главной страницы, автора, тегов, архивы: категорий, автора, даты. Так что каждая метка увеличит количество дублей сайта в несколько крат. Поэтому нужно обязательно подумать какие статьи мы можем объединить, меток на всем сайте должно получиться меньше, чем записей.

Приведу свой пример ошибки на этом сайте — «moylubimiblog». В начале ведения  блога,  написала статью: «страницы, записи, рубрики, метки». В тексте изложила правильные понятия об этих элементах. Однако при оформлении статьи делаю четыре метки по названию четырех элементов структуры сайта, этим создаю сразу много дублей. Потом удивляюсь: «Почему это Яндекс такую хорошую статью не индексирует?». К сожалению, эту статью случайно удалила, теперь мне так не написать, для начинающих. Стоило сделать метку только одну — «структура сайта», или еще как-то. Если такую ошибку позже изменить, будет  много ошибок 404, которые в  поисковых системах упорно держатся, в течение длительного времени.

Что хуже? – битые ссылки, или дубли. Все же дубли хуже, они нарушают перелинковку сайта, деля вес между всеми вариантами статьи. Поисковые роботы часто индексируют дубли вместо основной статьи. Но если очень много ошибок 404, то вход к сайту практически закрыт, так что удаления делать лучше медленнее, балансируя между плохим исходом и очень плохим.

Цель меток для продвижения

Они нужны пользователям для того, чтобы найти группу статей одной темы.  Сейчас поисковые системы настроены на продвижение сайтов для людей. Не только важен хороший текст, но и юзабилити сайта, иначе пользователь может просто не добраться до «шедевра», нужно чтобы читателю было удобно и хорошо.  Приведу опять пример своих ошибок. У меня есть 2 статьи о картинках. К каждой статье сделала свои отдельные метки, получились 2 разрозненные статьи, посвященные картинкам для сайта и для заголовка, написанные в разное время. Эти  две статьи могли бы объединить одинаковые метки: «картинки» или «изображения», в этом случае, пользователю откроется сразу 2 статьи одной тематики.

Как  объединение меток для продвижения выполнить технически

Для того, чтобы сделать метку для следующей похожей статьи, справа от редактора, под строчкой, предлагается ссылка «для часто употребляемых меток». После нажатия этой строки появятся все метки сайта, из них и нужно выбрать. Когда одна и та же метка повторяется несколько раз, ее шрифт укрупняется и становится более заметным. К ним нужно обязательно делать описания.  Находим в админпанеле » записи», под ней расположены рубрики и  метки  — нажмем опцию «метки» и нас перебросит в новое окно, к описаниям.

Если есть ошибки, в новом окне нужно все просмотреть и подумать, какие записи можно дополнительно объединить. Если у вас раньше все  было сделано правильно, значит, все хорошо и вы лучше продвигаетесь.

 Все здесь правильно написано, однако позже мне стало понятно, что метки к статьям стоит устанавливать, когда слишком укрупнятся рубрики от большого количества статей и когда сайт хорошо продвинется, но не в самом начале ведения блога.

Автор: Ксенья Юрьевна Бастрикова

Комментарии 8

  • Удалить, это просто, а как объединить? Нашла полагин Term Management Tools вроде бы помогающий объеденить, но пока не разобралась, хотя и отставила всю работу, но пока не сдивинулась с места ничуть.

  • А что рубрика и тег не должны совпадать по названию, например рубрика «Музеи» и если статью написала о музее, то тег «Музеи» не ставить?

  • Ксения, совершенно не могу разобраться, как правильно ставить тэги. Ставлю как придется. Попробую перечитать Вашу статью еще раз.

  • Мне кажется они должны быть отличными от ключевых слов и нужно запретить их индексирование, чтобы избежать дубляжа.

  • Страницы меток, рубрик, фиды и вообще все создающиеся на Вордпресс дубли нужно закрывать мета-тегом robots. Страницы служебные — типа «Обратной связи» — закрываются прямо из админки. В редакторе внизу ставите галочки «Добавить аргумент NOINDEX», «Добавить аргумент NOFOLLOW»
    А вот для страниц тегов, страниц рубрик, архивов (есть архивы по месяцам, архивы авторов и т.д.) нынче приходится делать изменения в коде. Раньше их закрывали в файле robots.txt. Сейчас это не очень срабатывает. Верней, Яндекс слушается, а вот Гугл индексирует эти страницы. Правда, отправляет их не в основной, а в дополнительный индекс (т.н. «сопливый индекс»)

  • Здравствуйте, Ксенья Юрьевна! Я страницы тегов, рубрик, фиды и прочие дубли сейчас закрыл мета-тегом robots. Ранее они были закрыты директивой disallow в файле robots.txt Но получалось следующее. ПС (и Гугл тоже) не индексировали сами эти страницы. Но ведь на них имеются ссылки. Проходя по этим ссылкам, робот Гугла в итоге вносил страницы в дополнительный индекс. Это действительно сейчас мешает продвижению.
    Для отмены этого прискорбного явления нынче вебмастера закрывают дубли не в файле robots, а добавляют при помощи специальных скриптов в код мета-тег robots. Итогом в коде будет следующая запись: meta name=»robots» content=»noindex,nofollow»
    А в robots.txt сейчас открыт весь контент. И закрыто все остальное: Disallow: /wp-
    Но открывать контент в файле можно только после подключения мета-тега robots
    Закрытые подобным образом дубли уже не индексируются поисковыми роботами и постепенно удаляются из индекса. У меня за месяц из «сопливого индекса» Гугла уже удалены больше ста подобных страниц-дублей.
    Подобным образом удаляют также дубли replytoocom, возникающие при использовании древовидных комментариев. У меня, правда, этого зверя не было, потому что древовидных комментариев я не разрешал с самого начала. А устроил «древовидность» с помощью плагина.
    Что же касается прямого удаления меток. Это тоже путь к уменьшению числа дублей. Но при этом увеличивается число «ошибок 404». И если теги удалять, то очень постепенно. Ведь большое число не найденных страниц тоже вряд ли понравится ПС.
    К тому же так можно убрать страницы тегов. А страницы рубрик? это ведь тоже дубли. А архивы — автора, по месяцам? И это дубли. А фиды? Если у нас подключена подписка через Фидбёрнер, они создаются.
    Я не являюсь сам спецом в кодах. Но спецов достаточно. И материал по этому вопросу в инете есть, как платный, так и бесплатный.

  • Ксенья Юрьевна, вставить нужно не мета-тег, а скрипт, добавляющий мета-тег robots в страницы меток, рубрик (категорий), архивов, фидов и всего, что служит источником дублей на блоге, что не должно индексироваться.
    Скрипт же добавляется в файл functions.php

  • Спасибо, Ксения Юрьевна, наконец-то прояснили мне кое-что, хотя придется еще перечитать и статью и комментарии А.Селиванова.

Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *