Обновленные рекомендации Google предупреждения блогерам

Обновленные рекомендации Google появились в 2014 году. Оказывается, что поисковики Гугла отличались от всех других современных браузеров, но теперь Гугл обновил свою технику, и его поиск будет осуществляться так же, как и во всех современных браузерах. Может быть, у нас  теперь дублей будет меньше, смею надеяться.  Однако, этот документ мне не показался совсем новым, потому что год назад об этом в Яндексе читала. Обновленные рекомендации Google

 Обновленные рекомендации Google — запрещенные действия 

Статьи рекомендаций Гугла  очень обширны. В них много ссылок на разные разделы.  Есть предупреждение, что если веб. мастера будут нарушать предложенные правила, то на их  сайты может быть наложен фильтр, полный или частичный. Найти их можно в справке Гугл.

  • К ним Гугл относит: различные мошенничества,  и лазейки, особое внимание уделяется борьбе со спамом, на сайтах. Про мошеннические методы даже не знаю, какими они бывают Но  спам на сайтах не всегда могу отличить от подлинных ссылок.
  • Нельзя размещать автоматически генерированное содержание.
  • Участвовать в обмене ссылками.
  • Публиковать скопированные тексты.
  • Применять маскировки, /когда предоставляются не те результаты, которые указаны в заголовке/. Однако мне такое довольно часто встречается в Интернете.
  • Применять скрытую переадресацию, когда вместо одного адреса показывается другой. Рекомендуется применять редирект, с ответом сервера 301.
  • Скрытый текст и ссылки.
  • Запрещаются дорвеи – это дополнительные сайты для поддержки основного. Когда посетители попадают на такие сайты, где содержатся только ссылки, они остаются недовольными. Гугл предлагает сообщать им о таких сайтах и грозит удалить за это основные проекты.

Еще запреты

  • Сайты, созданные только для работы с партнерами.
  • Страницы с не релевантными ключевыми словами. Потому при написании статьи, нужно проверить, есть ли по этим ключам запросы.
  • Создание вредоносных страниц, содержащих вирусы.
  • Неправильная разметка для расширенных описаний веб страниц. Имеется в виду, дополнения в коде сайта структурированной разметки.
  •  Автоматические запросы в Google. Видимо кто-то делает такие запросы.

Обновленные рекомендации Google  — что считать спамом 

Автоматический спам ко мне на сайт не попадает, потому что у меня стоит капча, но речь идет о ручном спаме. Гугл пишет о спаме в комментариях, потому что комментарий является добавлением или продолжением статьи. Текст комментария является ее частью – об этом и раньше знала, это не ново.

Знать-то знала, однако на сайте у меня была «заспамленность», о которой узнала при проверке сайта. Но еще хуже, если предупреждение о спаме сделает Гугл, тогда мы у него будем «на заметке».

Обновленные рекомендации Google повествуют о том, как  серьезно настроены поисковики против спама.

 Обновленные рекомендации Google — примеры спама 

  •  Гугл пишет, что спам добавляют пользователи.
  • Спам на сайте может появляться из служб бесплатных хостингов.
  • Из сообщений форумов.
  • В комментариях, на сайтах, /это уже нас напрямую касается/. Гугл рекомендует быть внимательными к содержанию комментариев, модернизировать их. Автор статьи имеет право изменить и дополнить текст комментария. Исправить грамматические ошибки в нем, потому что отныне текст комментария становится собственностью автора.

 Обновленные рекомендации Google  гласят, что : «Спам нужно незамедлительно удалить!».

Еще раньше удалила ссылки и правых и виноватых комментаторов, когда выводила свои сайты из-под АГС Яндекса. Можно было просто одни ссылки удалить. Однако Гугл пишет, что некоторые спамеры распространяют ссылки массово, при помощи скриптов.

  • Обновленные рекомендации Google не приветствуют ссылки, которые не связаны с темой обсуждения, например, с каким-нибудь предложением о легком заработке. Это тоже относится к ручному спаму. Ко мне таких сообщений на сайт приходило довольно много. Приходят и сейчас, но текст не такой прямой, а завуалированный.
  • Если приходит такая ссылка, то следует перейти на этот сайт или адрес и посмотреть на сайт комментатора, и его оценку в RDS баре. Полгода назад писала подобные статьи, но сейчас Гугл освещает эти вопросы. Они до сих пор актуальны,  мимо этого нельзя пройти, но особенно в моей теме.

 Меры предотвращения спама

  •  Предлагают установить капчу /CAPTCHA/ , хотя у меня она давно стоит, предотвращая от автоматического спама. Предлагается зарегистрироваться на бесплатном сайте Гугла: reCAPTCHA, и дается ссылка.
  • Рекомендуется пользоваться тегами rel nofollow.
  • Следует запрещать ссылки в комментариях.
  • Существует возможность настройки сервера таким образом, чтобы он удалял ссылки с префиксом https.
  • Блокировать страницы комментариев с помощью файла robots.txt. Но можно это делать с помощью запретительных метатегов, которые располагаются в коде сайта.
  • Предлагается пользоваться черным списком,  в настройках Word Press .
  • Постоянно следить за спамом на наших страницах. Для этого использовать инструмент : «Оповещения Google». Нужно задать в строке  запрос, с адресом своего сайта и с ключевыми словами, которых на сайте не должно быть. Однако они есть, в списке инструментов для веб мастеров Гугла. Перешла на эту страницу, но непонятно, как она может распознать взломанные страницы?

Советы по оформлению контента  

  • Google рекомендует создавать сайты с четкой иерархической структурой.
  • На каждую страницу должна вести, как минимум одна текстовая ссылка. Прямые ссылки это и есть названия наших статей.
  • Обязательно должна быть карта сайта для пользователей, со ссылками. Ссылки предлагают разделять на страницы, не размещая много ссылок на каждой из них.
  • Нужно включить ключевые слова сайта, в его описании, на видном месте.
  • Имена и названия должны быть представлены текстом, а не изображением. К описанию рисунков обязательное применение атрибута alt, без ошибок.
  • Нужно чтобы все ссылки работали, и не было ошибок в коде HTML. Рекомендуют сократить количество параметров.
  • Предлагают ознакомиться   с правилами размещения: картинок, видео и структурированных данных. Последние нужны для расширенных сниппетов.

Дополнительные советы

  • Обязательно создание файла robots.txt и проверка его в инструментах для веб мастеров Гугла. Просмотреть страницы сайта, как Googlebot. Обращают внимание на запрет рекламы в файле robots.txt , если она попадает в индекс.
  • Предлагается открыть доступ к файлам CSS и JavaScript.
  • Не рекомендуется устанавливать на сайте средства отслеживания поведения пользователей, потому что это может привести к появлению дополнительных дублей. Роботы читают сайты не так, как люди.
  • Нужно проверить поддерживает ли наш сервер  HTTPS-заголовок, «If-Modified-Since».  Этот заголовок нужен для сообщений Google о том, что контент обновился. А так же  для того, чтобы роботы работали более экономично и не сканировали повторно тот же самое, но не обновленное, содержание.
  • На сайте может работать система управления контентом, но в этом случае она должна быть корректной.
  • Однако нам нужно убедиться, что сайт корректно отображается во всех браузерах.
  • Мы должны регулярно проверять скорость загрузки своих сайтов. Оптимизировать свои страницы. В связи с рекомендациями Page  Speed, Yslow, WebPagetest.
  • Рекомендуется обеспечить качество сайта, созданием его для людей. Чаще задавать себе вопрос: «Нужно ли это пользователям?». Чем наш сайт выделяется среди конкурентов? Чем он уникален?

Примерно так, в общих чертах.

Оставить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Этот сайт использует Akismet для борьбы со спамом. Узнайте, как обрабатываются ваши данные комментариев.

Что будем искать? Например,Человек

Мы в социальных сетях