Обновленные рекомендации Google появились в 2014 году. Оказывается, что поисковики Гугла отличались от всех других современных браузеров, но теперь Гугл обновил свою технику, и его поиск будет осуществляться так же, как и во всех современных браузерах. Может быть, у нас теперь дублей будет меньше, смею надеяться. Однако, этот документ мне не показался совсем новым, потому что год назад об этом в Яндексе читала.
Обновленные рекомендации Google — запрещенные действия
Статьи рекомендаций Гугла очень обширны. В них много ссылок на разные разделы. Есть предупреждение, что если веб. мастера будут нарушать предложенные правила, то на их сайты может быть наложен фильтр, полный или частичный. Найти их можно в справке Гугл.
- К ним Гугл относит: различные мошенничества, и лазейки, особое внимание уделяется борьбе со спамом, на сайтах. Про мошеннические методы даже не знаю, какими они бывают Но спам на сайтах не всегда могу отличить от подлинных ссылок.
- Нельзя размещать автоматически генерированное содержание.
- Участвовать в обмене ссылками.
- Публиковать скопированные тексты.
- Применять маскировки, /когда предоставляются не те результаты, которые указаны в заголовке/. Однако мне такое довольно часто встречается в Интернете.
- Применять скрытую переадресацию, когда вместо одного адреса показывается другой. Рекомендуется применять редирект, с ответом сервера 301.
- Скрытый текст и ссылки.
- Запрещаются дорвеи – это дополнительные сайты для поддержки основного. Когда посетители попадают на такие сайты, где содержатся только ссылки, они остаются недовольными. Гугл предлагает сообщать им о таких сайтах и грозит удалить за это основные проекты.
Еще запреты
- Сайты, созданные только для работы с партнерами.
- Страницы с не релевантными ключевыми словами. Потому при написании статьи, нужно проверить, есть ли по этим ключам запросы.
- Создание вредоносных страниц, содержащих вирусы.
- Неправильная разметка для расширенных описаний веб страниц. Имеется в виду, дополнения в коде сайта структурированной разметки.
- Автоматические запросы в Google. Видимо кто-то делает такие запросы.
Обновленные рекомендации Google — что считать спамом
Автоматический спам ко мне на сайт не попадает, потому что у меня стоит капча, но речь идет о ручном спаме. Гугл пишет о спаме в комментариях, потому что комментарий является добавлением или продолжением статьи. Текст комментария является ее частью – об этом и раньше знала, это не ново.
Знать-то знала, однако на сайте у меня была «заспамленность», о которой узнала при проверке сайта. Но еще хуже, если предупреждение о спаме сделает Гугл, тогда мы у него будем «на заметке».
Обновленные рекомендации Google повествуют о том, как серьезно настроены поисковики против спама.
Обновленные рекомендации Google — примеры спама
- Гугл пишет, что спам добавляют пользователи.
- Спам на сайте может появляться из служб бесплатных хостингов.
- Из сообщений форумов.
- В комментариях, на сайтах, /это уже нас напрямую касается/. Гугл рекомендует быть внимательными к содержанию комментариев, модернизировать их. Автор статьи имеет право изменить и дополнить текст комментария. Исправить грамматические ошибки в нем, потому что отныне текст комментария становится собственностью автора.
Обновленные рекомендации Google гласят, что : «Спам нужно незамедлительно удалить!».
Еще раньше удалила ссылки и правых и виноватых комментаторов, когда выводила свои сайты из-под АГС Яндекса. Можно было просто одни ссылки удалить. Однако Гугл пишет, что некоторые спамеры распространяют ссылки массово, при помощи скриптов.
- Обновленные рекомендации Google не приветствуют ссылки, которые не связаны с темой обсуждения, например, с каким-нибудь предложением о легком заработке. Это тоже относится к ручному спаму. Ко мне таких сообщений на сайт приходило довольно много. Приходят и сейчас, но текст не такой прямой, а завуалированный.
- Если приходит такая ссылка, то следует перейти на этот сайт или адрес и посмотреть на сайт комментатора, и его оценку в RDS баре. Полгода назад писала подобные статьи, но сейчас Гугл освещает эти вопросы. Они до сих пор актуальны, мимо этого нельзя пройти, но особенно в моей теме.
Меры предотвращения спама
- Предлагают установить капчу /CAPTCHA/ , хотя у меня она давно стоит, предотвращая от автоматического спама. Предлагается зарегистрироваться на бесплатном сайте Гугла: reCAPTCHA, и дается ссылка.
- Рекомендуется пользоваться тегами rel nofollow.
- Следует запрещать ссылки в комментариях.
- Существует возможность настройки сервера таким образом, чтобы он удалял ссылки с префиксом https.
- Блокировать страницы комментариев с помощью файла robots.txt. Но можно это делать с помощью запретительных метатегов, которые располагаются в коде сайта.
- Предлагается пользоваться черным списком, в настройках Word Press .
- Постоянно следить за спамом на наших страницах. Для этого использовать инструмент : «Оповещения Google». Нужно задать в строке запрос, с адресом своего сайта и с ключевыми словами, которых на сайте не должно быть. Однако они есть, в списке инструментов для веб мастеров Гугла. Перешла на эту страницу, но непонятно, как она может распознать взломанные страницы?
Советы по оформлению контента
- Google рекомендует создавать сайты с четкой иерархической структурой.
- На каждую страницу должна вести, как минимум одна текстовая ссылка. Прямые ссылки это и есть названия наших статей.
- Обязательно должна быть карта сайта для пользователей, со ссылками. Ссылки предлагают разделять на страницы, не размещая много ссылок на каждой из них.
- Нужно включить ключевые слова сайта, в его описании, на видном месте.
- Имена и названия должны быть представлены текстом, а не изображением. К описанию рисунков обязательное применение атрибута alt, без ошибок.
- Нужно чтобы все ссылки работали, и не было ошибок в коде HTML. Рекомендуют сократить количество параметров.
- Предлагают ознакомиться с правилами размещения: картинок, видео и структурированных данных. Последние нужны для расширенных сниппетов.
Дополнительные советы
- Обязательно создание файла robots.txt и проверка его в инструментах для веб мастеров Гугла. Просмотреть страницы сайта, как Googlebot. Обращают внимание на запрет рекламы в файле robots.txt , если она попадает в индекс.
- Предлагается открыть доступ к файлам CSS и JavaScript.
- Не рекомендуется устанавливать на сайте средства отслеживания поведения пользователей, потому что это может привести к появлению дополнительных дублей. Роботы читают сайты не так, как люди.
- Нужно проверить поддерживает ли наш сервер HTTPS-заголовок, «If-Modified-Since». Этот заголовок нужен для сообщений Google о том, что контент обновился. А так же для того, чтобы роботы работали более экономично и не сканировали повторно тот же самое, но не обновленное, содержание.
- На сайте может работать система управления контентом, но в этом случае она должна быть корректной.
- Однако нам нужно убедиться, что сайт корректно отображается во всех браузерах.
- Мы должны регулярно проверять скорость загрузки своих сайтов. Оптимизировать свои страницы. В связи с рекомендациями Page Speed, Yslow, WebPagetest.
- Рекомендуется обеспечить качество сайта, созданием его для людей. Чаще задавать себе вопрос: «Нужно ли это пользователям?». Чем наш сайт выделяется среди конкурентов? Чем он уникален?
Примерно так, в общих чертах.