Сайты
SEO
Интернет-магазины
Логотипы
Полиграфия
Статьи
Санкт-Петербург
+7(921) 893 60 84
Москва
+7(495) 729 08 01
2
января
2015

Фильтры поисковых систем Яндекс и Гугл


Фильтр представляет собой особый алгоритм поисковых машин, который позволяет убрать из результатов поиска по запросу сайты с уровнем ранжирования, который был поднят искусственным способом. Главная задача поисковой системы заключается в предоставлении пользователям полезной и качественной информации, поэтому в процессе индексирования сайтов они подвергаются всевозможным проверкам, чтобы выявить запрещенные методы оптимизации. В основном фильтры накладываются за покупку ссылок и использование дублированного контента. Однако попасть под их действия могут и обыкновенные сайты, при создании и продвижении которых были допущены ошибки. Поэтому понимание механизма их работы может уберечь ваш сайт от краха.

гугл.jpg


Фильтры Google

Система поиска Google стала одной из первых использующих алгоритмы для улучшения поисковых результатов. Фильтров у нее больше, чем у Яндекс, однако часть из них не применяется к сайтам на русском языке. 

Среди фильтров Google наиболее эффективны:

  • Фильтр дублирующего контента. Повторяющаяся информация не уникальна, не приносит пользы для юзеров и нарушает авторское право. Данный фильтр понижает выдачу ресурса по запросам.
  • "–30"  – фильтр против клоакинга и дорвеи. Применяется, если сайт грубо засоряет поисковую систему спамом – за это позиция в выдаче снижается сразу на 30 пунктов.
  • "Чересчур быстрый прирост ссылок". Для Google резкий рост ссылочной массы становится доказательством того, что ссылки были куплены. В качестве наказания снижается рейтинг в выдаче, либо накладывается "бан".
  • Фильтр Bombing применяется к сайтам, которые используют множество ссылок с одинаковым анкором. Система распознает этот прием как спам и стремление незаконно повысить позиции своего ресурса. 
  • Sandbox – фильтр молодых сайтов, которые система рассматривает с осторожностью и не позволяет пробиться в первые недели на первые позиции. Длительность пребывания в песочнице может достигать от одного месяца до нескольких лет.
  • Links занижает ранжирование сайтов, которые используют обмен ссылками для продвижения.
  • "Социтирование" - фильтр, блокирующий сайты с нежелательным контентом (казино, порнография).
  • Фильтр переоптимизации влияет на страницы с переизбытком ключевых слов. 
  • "Время загрузки" - еще один метод системы предоставить пользователю сайты, качественные во всех отношениях.
  • Supplementary Results также затрагивает продублированные документы и другие страницы, которые система считает в сравнении с другими менее полезными и значимыми.

яндекс.jpg


Фильтры Яндекс

  • "ЗА ПФ" – понижает сайт в выдаче, которые покупают сервисы по накрутке поведенческих факторов (ПФ).
  • "АГС" – против ресурсов, созданных исключительно для продажи ссылок. Он выбивает из индекса поисковой системы практически все страницы ресурса.
  • "Ты Последний" борется против дублированного контента. 
  • "Непот фильтр" понижает позиции тех сайтов, которые обмениваются или продают ссылки. Яндекс снижает вес ссылки, из-за чего ее продажа становится бессмысленной.
  • Фильтр аффилиатов работает против коммерческих проектов, ориентируясь на сообщения от пользователей.
  • "Ты спамный" борется с сайтами с переизбытком ключевых слов. 
  • Редирект применяется, чтобы бороться с дорвеями, и отправляет сайт в "бан".



Возврат к списку


Отзывы, вопросы и комментарии

Введите ваш комментаpий

Введите код с картинки

Миха (написал комментарий 15 апреля 2016, 11:38:00)
Не так давно вылетели все страницы с индекса Яндекса. Только главная находится. Сайт новый, контент не отрерайтенный, сам писал. Почему так? В яндекс-вебмастер вижу, что много страниц видит робот, но в поисковую базу не забрасывает.
Ответить
  Newwave studio (написал комментарий 26 мая 2016, 11:11:00)
Укажите ссылку на ваш сайт. Сколько месяцев, лет сайту?
Ответить
Миха (написал комментарий 15 апреля 2016, 11:39:00)
Кстати, вот интересная статья http://wpnew.ru/raskrutka-bloga/povedencheskie-faktoryi/filtr-za-nakrutku-pf.html про то, как конкуренты могут душить друг друга
Ответить
Ирина (написал комментарий 26 мая 2016, 11:06:00)
Как же позновательно! Скажите а на каком проценте совпадений Яндекс признает контент дублированным?
Ответить
  Newwave studio (написал комментарий 26 мая 2016, 11:10:00)
Ирина, яндекс хорошо определяет первоисточник и даже видит те сайты, которые сделали с этого источника средненький рерайт.
Но! Если ваш сайт обладает хорошей посещаемостью и скопированный текст более грамотно оформлен, чем в первоисточнике, то Яндекс может выше ранжировать ваш сайт.
Ответить
Николай (написал комментарий 19 декабря 2016, 21:57:00)
Почему-то мало написано про аффилиат-фильтр, который накладывается, если на нескольких сайтах одной сферы деятельности Яндекс обнаружит одни и те же контактные данные (телефон, адрес) а так же идентичную информацию об услугах и товарах.

Многие это не знают, или не понимают что нужно сделать. Но секрет прост - убрерите одинаковые контакты, перепишите тексты, уберите ссылки друг на друга.
Ответить