#Гайд: Фильтры Google и Яндекс — что почем и почему?

Фильтры разные важны, фильтры разные нужны…

Если положить руку на сердце — на самом деле большинство из них действительно полезное явление, отсекающее совсем уж «никакущие» сайты.

В этой статье мы обсуждаем самые важные (а также малоизвестные) фильтры популярных поисковиков, не забывая обмениваться опытом и важными находками.

 

Часть первая: Google.

#Что такое «Фильтры»:

…Знает каждый веб-мастер. Но мы повторим.

Фильтры — это алгоритмы поисковых систем, которые позволяют исключить из поисковой выдачи некачественные сайты или те, чей уровень ранжирования был поднят искусственными методами.

Здесь важно понимать следующее:

  • это не «Гугл или Яндекс плохие».

В большинстве случаев — это просто качественное исполнение своих обязанностей, а для Поисковиков исполнение обязанностей как раз и заключается в том, чтобы предоставить пользователю всю необходимую ему информацию.

  • представители Гугл любят общаться с веб-мастерами, что в Твиттере, что на конференциях.

Даже если в описании их деятельности четко видно слово «SEO». А это значит, что не «белое конкурентное продвижение» не любит Гугл. А «черное и искусственное».

  • Точное действие работы алгоритмов поисковиков знают только представители поисковиков.

…Но они нам не расскажут. Так что приходится добывать крупицы информации «с миру по нитке».

 

«Sandbox» (Песочница)

Действие:

Спорный фильтр, разделивший веб-мастеров на два лагеря: одни верят в его существование и исправное функционирование, вторые же — упорно отрицают. Если «Песочница» существует, то этот фильтр, несомненно, охотится на недавно созданные сайты, не пуская их дальше второй страницы поисковой выдачи.

Цель — проверить новоявленные сайты на «серьезность намерений».

В целом, «Песочницу» можно рассматривать как ответ «Черному SEO».

Противодействие:

  • Развитие сайта: перелинковка, наполнение страниц полезным+уникальным контентом.
  • Внимательная закупка ссылок (жизненно важно не переборщить).
  • Наращивание упоминаний о вашем сайте от авторитетных источников.
  • «Сарафанное радио» — стремитесь, чтобы вашим контентом делились в социальных сетях (и, конечно же, предоставьте пользователям сайта такую возможность).

«Bombing» (Бомбежка)

Действие:

От этого фильтра страдают сайты, чьи веб-мастера злоупотребляют внешними ссылками с одинаковыми анкорами. По сути, с таким же успехом сайтом можно не заниматься вовсе — такие ссылки в глазах Гугл полностью теряют свою значимость.

Противодействие:

  • Частичное удаление «одинаковых» ссылок.
  • Закупка ссылок на «трастовых» ресурсах.

«Broken Links» (Битые ссылки)

Действие:

От этого фильтра страдают сайты, на которых можно обнаружить множество ссылок с 404й ошибкой, т.е. «битых». Как результат — стремительное падение позиций в поисковой выдаче.

Противодействие:

  • Поиск и удаление битых ссылок (например, при помощи Яндекс.Вебмастер).

«Too Much Links» (Слишком много ссылок)

Действие:

Если вы закупили слишком много ссылок в один период времени — они теряют всю свою силу. Как результат — остановка роста позиций в лучшем случае, стремительное падение — в худшем.

Противодействие:

  • Если вы еще не успели ничего испортить — совет прост: не пользуйтесь методами черного продвижения, закупайте ссылки постепенно. Многие веб-мастера советуют начинать продвижение с момента того, как сайту исполнилось не меньше, чем полгода. А до этого времени все свое внимание бросить на функционал и создание уникального контента.

 «Page Load Time» (Длительное время загрузки)

Действие:

Фильтр накладывается в том случае, если страницы сайта загружаются слишком долго.

Чаще всего это происходит из-за большого количество плагинов (возможно, конфликтующих между собой), большого количества скриптов, «слишком тяжелых» изображений или медленного хостинга.

Противодействие:

  • Убедитесь, что страницы вашего сайта не переполнены плагинами. Их оптимальное количество — 5-7. Проверьте, не конфликтуют ли они между собой.
  • Проверьте качество и количество скриптов.
  • Проверьте скорость хостинга. Например, при помощи Хост Трекера.
  • Сжимайте изображения. Благо, существует масса хороших сервисов. Например, Риот.

«Penguin» (Пингвин) & «Over Optimization»

Действие:

Пингвин, пожалуй, самый знаменитый фильтр Гугл, от которого в свое время пострадало рекордное количество сайтов. Проще говоря — с хорошими позициями в поисковой выдаче они попрощались надолго.

Изначально «Пингвин» был задуман как фильтр, наказывающий за переоптимизированный текст.

Но в последующих обновлениях «Пингвин» вышел на тропу войны как с черным SEO (клоакинг, дубли страниц, скрытые ссылки и т.д), так и резкий прирост ссылочной массы.

Что касается «Over Optimization» — здесь, как понятно из названия, караются переоптимизированные страницы.

Противодействие:

  • Первое, и самое главное правило: тщательное внимание к качеству контента. «БОЛЬШЕ НЕ ЗНАЧИТ ЛУЧШЕ»! Тексты должны быть «естественными» (т.е. не перегружены ключевыми словами), информативными, а в идеале — грамматически правильными.
  • Использовать разбавленные анкоры, т.е. без прямого вхождения.
  • Не использовать методы черного продвижения.
  • Не использовать «автоматическое продвижение».
  • Рекомендованная плотность ключевых слов на текст — 5-7%. Больше 10% — уже рискованно.

«Panda» (Панда)

Действие:

Этот фильтр тоже наказывает за некачественный контент, но в большей степени обращает внимание на рекламу «не к месту».

А также: дублирование страниц, ворованный контент («ворованным» считается неуникальный контент, размещенный на других ресурсах. Уникальность текста должна составлять не ниже 80%), некачественные ссылки (нетематические).

История гласит, что после его выхода пострадало примерно 12% всех сайтов поисковой выдачи. Поэтому шутки плохи.

Противодействие:

  • Само собой, оценка качества размещенного контента. Если его уникальность составляет менее 80% — срочная замена.
  • Удаление нетематической рекламы.

«Page Layout»

Этот алгоритм оценивает эффективность информации, которая размещена на главной странице вашего сайта.

А также количество рекламы, размещенной там же.

Алгоритм распознает структуру документа (страницы), и если верхняя часть сайта (без прокрутки) переполнена рекламой — сайт попадает под фильтр. Алгоритм появился еще в январе 2012-го года, и с тех пор регулярно обновляется.

ВАЖНО! В середине марта Гэри Илш подтвердил актуальность алгоритма. Вот его утвердительный ответ.

 

Хотите знать больше?

Как видите, основными «камнями преткновения» можно считать две проблемы: некачественный контент и неправильную ссылочную стратегию.

Про решение большинства этих проблем мы уже писали.

Например: