Фильтры поисковых систем

Фильтры поисковых систем. За что?

Задача поисковой системы - показывать выше те сайты, которые более полно отвечают на запрос пользователя. Что касается оптимизации - вопрос отдельный. А что будет если злоупотреблять принципами оптимизации? Где грань например того сколько ключевиков можно употребить или сколько ссылок купить?

Для "особо хитрых" поисковые системы применяют фильтры. Фильтр — это программный механизм, проверяющий соответствие данных какому-то условию.

Среди основных причин попадания под фильтры поисковых систем можно выделить:

  1. неуникальный контент;
  2. обилие внутренних дублей (обычно страницы с параметрами пагинации и фильтрации);
  3. избыточное количество ключевых слов;
  4. страница не отвечает на запросы пользователя (т.е. оптимизирована под другой запрос);
  5. резкий прирост ссылочной массы;
  6. неестественность ссылочной массы;
  7. эмуляция действий пользователей;
  8. наличие большого количества ссылок на сайте;
  9. перенасыщенность сайта рекламой.

Основные фильтры Яндекса

АГС

Проявляется исключением сайта из индекса поисковой системы, остаётся только от 1 до 10 служебных страниц.

Обычно применяется к новым сайтам, которые не вкладывали в разработку денег (бесплатный хостинг, бесплатная ЦМС с бесплатным шаблоном, т.е. сайт не несет уникальной ценности ещё без контента).

Как правило, такие сайты имеют большое количество технических дублей, не вкладываются в контент. Ссылочная масса, если и наращивается, то самыми дешевыми ссылками, но обычно сами ими "торгуют" или/и размещают рекламу. В итоге у сайта нет посещаемости.

В большинстве случаев быстро выйти из АГС не получается. Если вам надо быстро – то лучше просто перенести сайт на новый домен, но если вы просто все перекинете на новый домен без изменений, то через время он тоже загремит под АГС. Если же сам домен для вас имеет ценность или вы хотите так избавиться от АГС, чтоб больше на эти грабли не наступать, то лучше задуматься над полной переделкой сайта. Что именно и как необходимо переделывать – нужно смотреть по ситуации.

Фильтр за переоптимизацию сайта

Фильтр появился осенью 2011 года, его основная задача – избавить выдачу поисковых результатов от страниц, оптимизированных под запросы, на которые они не дают полноценного ответа.

Проявляется в неглубоком понижением на 10-30 позиций без смены релевантной страницы. Понижаться могут конкретные страницы или сайт в целом.

Причина: переоптимизация + нерелевантность. То есть, понижаются страницы, явно оптимизированные под запросы, ответа на которые на этих страницах на самом деле нет. Контент, который является причиной наложения фильтра за переоптимизацию, бывает двух типов:

  1. Абсолютно бессмысленный – много букв с КПД=0. Отличным примером в таком случае может быть эта страница http://webmaster.ya.ru/replies.xml?item_no=11464
  2. Нерелевантный запросам, под которые он оптимизирован.

Бывает такое, что контент вполне адекватный, но в тексте присутствуют запросы, на которые на самом деле ответа на странице нет. Именно в таких случаях причины наложения фильтра не всегда очевидны – переспама в прямом смысле этого слова на странице не наблюдается, но, тем не менее, страница пессимизирована.

Пример: с целью поднять страницу по запросу «фильтры для воды», оптимизатор вставляет в текст запрос, взятый из подсказок Яндекса – «фильтры для воды отзывы», хоть на самом никаких отзывов на странице и в помине нет. Пользователи, которые переходят на сайт по запросу «фильтры для вод отзывы», чувствуют себя обманутыми и возвращаются в выдачу. В результате ухудшение ПФ (поведенческих факторов) страницы и пессимизация.

Аффилиат-фильтр

Призван исключить сайты одного владельца, которые продвигаются по одинаковым запросам (помните времена когда компании делали 10 сайтов и всех их продвигали в топ?). Если Яндекс выясняет, что в поисковой выдаче по одним и тем же запросам присутствуют несколько сайтов одной компании, он фильтрует их, оставляя по каждому запросу только один сайт – наиболее релевантный с его точки зрения.

Проявляется резким исчезанием по всем или нескольким запросам, которые находятся в топе или близко к топу. При этом в топ выходит его «брат», принадлежащий той же компании. По одним запросам в выдаче может находиться один сайт компании, по другим – другой. Время от времени может происходить взаимозамена, но одновременно находиться в выдаче аффилированные сайты не будут.

Признаки, по которым Яндекс определят аффилиатов:

прямые:

  • одинаковая контактная информация (телефоны, адреса, карта);
  • одинаковые данные владельца во whois;
  • одинаковый хостинг (сайты находятся на одном IP или в одной подсети);
  • один и тот же регистратор доменов, одинаковое время регистрации.

косвенные:

  • похожий дизайн и структура;
  • одинаковая CMS;
  • пересечение ассортимента товаров/услуг и цен на них (полное или очень высокое);
  • похожий принцип подачи информации (описания товаров/услуг) и т.д.

Снятие фильтра происходит путем смены контактных данных, структуры и дизайна. Также можно разграничить ассортимент или закрыть от индексации все сайты кроме одного.

Ссылочный бум (взрыв).

Обесценивает влияние ссылок, купленных в большом количестве за короткий промежуток времени.

Проявление: в большинстве случаев «ссылочный бум» действует как предфильтр – ссылки, которые имеют отношение к ссылочному буму, просто не учитываются (вообще не действуют ни в плюс, ни в минус). Это часто проявляется в «залипании» сайта на определенных позициях – ссылки докупаются и докупаются, а позиции не меняются.

Но в этой ситуации бывают исключения – если сайт содержит явные признаки внутреннего спама, то «ссылочный бум» (внешний спам) может стать как бы катализатором для наложения санкций(сигнализируя о том, что с большой вероятностью сайт – ГС). В таком случае проявлением фильтра будет понижение позиций сайта (позиций/трафика).

Если такое произошло, то нужно действовать в зависимости от ситуации. В большинстве случаев такие ссылки лучше снимать постепенно: мигание ссылочной массы может ухудшить ситуацию и продлить мораторий на учет новых ссылок. Но на самом деле нельзя закупать сразу много.

Пессимизация сайта за «плохие ссылки»

Поисковым системам нужно избавить результаты поиска от низкопробных сайтов, которые пытаются продвинуться за счет ссылок.

Фильтр обнуляет действие всей ссылочной массы, в результате чего сайт резко проседает по всем ВЧ/СЧ.

Причины. По нашим наблюдениям, фильтр действует при обязательном наличии условий:

  • абсолютное преобладание некачественных доноров в ссылках;
  • наличие признаков спамности во внутренних факторах сайта;
  • переспам в анкор-листе (например, все ссылки ведут только на главную или стоят с одним анкором).

Таким образом, вести войну против сайтов конкурентов конкурентов с помощью этого фильтра тоже невозможно, если у них качественный контент и присутствуют хорошие ссылки.

Что может быть признаком плохой ссылочной массы для Яндекса? Скорее всего, такой вывод не делается на основании какого-то одного показателя. Обычно, работает группа показателей.

Показателями плохой ссылочной массы для поисковой системы могут быть:

  • преобладание в ссылочной массе молодых доменов и ГС (см. показатели ГС в пункте про АГС);
  • полное отсутствие естественных ссылок;
  • сосредоточение ссылочной массы на 1-2 страницах;
  • «мигание» ссылок (на странице донора появляются/удаляются/меняются внешние ссылки);
  • «скачки» при увеличение ссылочной массы;
  • большой процент доноров сомнительного содержания (взрослая тематика, варезники, немодерируемые форумы/блоги и т.д.).

В отличие от ссылочного бума, при пессимизации за плохие ссылки избавляются от всех ссылок сразу, а потом постепенно работают над получением новых ссылок, в том числе и естественных.

Фильтры Google

Фильтр Panda («Панда»)

Как правило, данный фильтр накладывается на Веб-ресурсы за некачественный контент: низкую уникальность текста, присутствие нерелевантной рекламы, большого количества ключевых слов, дублированных страниц и т.д.

Способы вывода из-под фильтра Panda - нужно удалить часть ненужных ссылок, добавить на сайт уникальный контент, удалить нерелевантную рекламу и «дубли».

Фильтр Penguin («Пингвин»)

Если на сайте высокая плотность ключевых слов, имеется точное вхождение ключевых слов в анкорах ссылок, имеются скрытые ссылки и дублированные страницы, а также наблюдается высокий темп роста наращивания ссылочной массы, то такой фильтр просто неизбежен.

Способы вывода из-под фильтра Penguin - убрать часть ключевых слов, разбавить анкоры синонимами, удалить скрытые ссылки и «дубли» и поработать над контентом сайта.

Резюме

Конечно же, мы рассказали не про все фильтры и баны поисковых систем. Их намного больше! Но дали понять о самых важных моментах. При продвижении сайта и при разработке стратегии продвижения мы учитываем нюансы обхода фильтров и делаем все, чтобы не допускаем под их попадание.

Но не стоит забывать, что поисковые системы регулярно обновляют свои фильтры, а также добавляют новые. Для того, чтобы дать вашему сайту шанс занять достойное место в выдаче поисковиков, необходимо не только знать правила игры и следить за их изменениями, но и оперативно вносить коррективы в работу с ресурсом. Именно такой стратегии придерживаются специалисты нашей компании.

09.09.2015 Все статьи