Каждый SEO-специалист должен знать алгоритмы Google и Яндекс. Именно от них зависит авторитетность ресурса, позиции и трафик. Поэтому информация о фильтрах для вебмастеров – подсказка, как улучшить сайт, сделать его более полезным и релевантным для поисковых машин и людей.
Рассмотрим основные фильтры Google и нарушения, за которые интернет-ресурс может получить санкции.
Молодые сайты сталкиваются с фильтром Domain Name Age(«Возраст доменного имени»). Наиболее доступные способы избежать его: купить домен с возрастом от 1 года или системно развивать ссылочный профиль сайта, закупить ссылки с трастовых ресурсов.
Еще один особо распространенный фильтр Google – SandBox («Песочница»). Под санкции попадают молодые сайты. Для решения этой проблемы вебмастер должен провести внутреннюю и внешнюю оптимизацию сайта, перелинковку.
За эти нарушения сайты исключаются из выдачи по релевантным запросам.
Часто вместо полного исключения сайта из индекса Google применяет «пессимизацию» т.е. понижает позиции сайта в выдаче. Рассмотрим основные алгоритмы пессимизации:
Алгоритмы последнего поколения влияют на результат выдачи, ориентируясь на следующие показатели:
Один из самых важных комплексны фильтров Google – Penguin («Пингвин»). Попасть под него можно за нарушения: скрытые ссылки, спам ключевыми словами в текстах, мета-тегах, анкорах, неестественный рост ссылочной массы (даже если для внешних ссылок использовались трастовые ресурсы).
Под «Пингвин» попадают «неестественные» сайты, которые SEO-специалисты оптимизировали слепо под требования поисковых машин и не думая о пользе для людей. Поисковые роботы постоянно совершенствуются, поэтому легко обнаруживают переоптимизированные и заспамленные сайты.
Чтобы исправить нарушение, следует:
Алгоритмы совершенствуются и становятся сложнее, чтобы ТОП в выдаче был релевантным запросу и полезным.
Знаете ли вы все алгоритмы Google и Яндекс? Проверьте себя и пройдите Тест: Сможешь ли ты защитить сайт?
Фильтр за переоптимизацию контента. Отсеивает страницы, перенасыщенные ключевыми словами.
За что можно попасть?
Задача этого фильтра заключается в том, чтобы не помещать «плохой» сайт в базу. Это объясняется переизбытком информации в интернете, в результате чего поисковые системы перестают забивать свою базу данных бесполезным контентом.
За что можно попасть?
Здесь все максимально просто: если у вас есть два хороших, но одинаковых по тематике сайта, занять первое место в выдаче сможет только один из них.
Связь сайтов устанавливается по контактным данным, владельцу домена и общей тематике.
Фильтр накладывается за не естественный прирост ссылочной массы:допустим, проекту всего месяц, а на него уже 150 тыс. ссылок.
Конечно, вы могли запустить вирусный проект и нарастить количество ссылок естественным путем. В этом случае должно вырасти количество переходов на сайт. Если же ссылок много, но по ним никто не переходит — у вас могут быть неприятности.
При самостоятельном продвижении или ограниченном бюджете зачастую возникает ситуация, когда позиции сайта залипают. Это не является каким-то фильтром, но приносит множество проблем при продвижении. Также на видео будет рассказано, как определить зафильтрованную страницу сайта самостоятельно и как правильно решить проблемы с поисковыми фильтрами.
Итак, что Вы можете сделать, если сайт залипает?
Обратите внимание: Google уже учитывает упоминания юридического адреса, банковских реквизитов и другой информации, которая есть в текстовых блоках, размещённых на официальном сайте вашей компании. Такие текстовые упоминания уже работают для вариативности ссылочной массы.