Как вывести сайт из-под фильтра Яндекс и Google – обзор причин
Подробная инструкция по выводу сайта из фильтров
Объясняю на понятном языке на основе исследований
Статья обновлена и дополнена: 22.04.2024 г.
«Песочница», «Минусинск», «Баден Баден», малополезный контент или некорректная реклама, факторы YMYL, ПФ и АГС – наверняка, вы уже где-то слышали об этих понятиях и столкнулись с одной из проблем:
— ваш сайт попал под фильтр поисковых систем, в Яндексе или Гугле;
— вы не знаете, как выводить свой сайт из-под фильтра;
— позиции продолжают проседать;
— главная страница сайта или его отдельные категории вовсе исчезли в индексе.
Однако, если Google менее восприимчив к пессимизации сайтов, даже если последние перебарщивают с поисковой оптимизацией, чего нельзя сказать о поисковике Яндекс, его роботы достаточно остро реагируют на серые методы продвижения и оперативно принимают требуемые меры. Результатом такого реагирования становится резкая просадка позиций ресурса в органической выдаче.
Подвести сайт под фильтр – будет ли вам за это стыдно?
В данной статье я хочу особое место уделить практической стороне вопроса, а именно конкретным способам, нацеленным на воспрепятствование попадания под ограничения. Все выводы на основе собственных экспериментов и опыта. Если вы перебарщиваете с методами раскрутки, применяете запрещенные способы на свой страх и риск или заказали услуги в агентстве, которое в качестве основного способа вывода сайта в топ использует накрутку поведенческих факторов, вероятность просадки позиций составляет свыше 50%. Разумеется, что глубина риска зависит и от вида фильтра. Есть и такие, попадание в которые сулит владельцу домена баном и его полной сменой, а также реструктуризацией всей маркетинговой концепции. Будет обидно, если вы годами развивали свой проект и в погоне за быстрыми результатами перечеркнули весь труд, который был вложен. Но хочу вас успокоить – вывести сайт возможно из-под любого фильтра и снять ограничения за несколько месяцев.
Если у вас действия, как говорится в пушку и вы понимаете, что применяли запрещенку, вам очень стыдно, но говорить об этом, естественно, никому не хотите, тогда следующая инструкция именно для вас. Считаю данную публикацию одной из самых актуальных в интернете.
Как узнать не состоит ли сайт под фильтром
Первое, с чем важно разобраться – это понять наверняка, наложили ли поисковики ограничения. Да, я не буду отрицать, что важным доказательством этого может послужить просадка позиций, но и это не гарантирует, что причина состоит именно в фильтре. Возможно, таким образом временно роботы реагируют на проводимые работы на сайте или у вас произошла реструктуризация url-структуры и программисты протупили, забыв сохранить уровни вложенности и требуемые ЧПУ. Вот 3 способа определения, даже если вы не разбираетесь в технических аспектах:
1. Главная страница должна быть в индексе.
Вводите в Яндексе команду url:адрес-сайта.ru и смотрите есть ли главная в выдаче. Если отсутствует, тогда сайт явно под фильтром или находится в песочнице.
2. Можно воспользоваться анализаторами и это бесплатно.
Существует множество сервисов, позволяющих идентифицировать наличие наложенных санкций. Например тот же АГС вы сможете с легкостью определить, воспользовавшись платформой Pr-cy.Ru.
3. «Яндекс.Вебмастер» в помощь.
Наиболее проверенный и действенный способ. Пройдите верификацию домена – подождите некоторое время. Вам необходима вкладка «Диагностика» — «безопасность и нарушения». В этом блоке Яндекс отобразит, существуют ли угрозы безопасности и нарушения на сайте, в том числе и по фильтрам. Не так давно, ко мне обратился клиент по пластиковым окнам, позиции ресурса которого резко просели и именно Яндекс.Вебмастер указал на то, что проект попал под фильтр из-за переспамленных SEO-текстов. Мы убрали все тексты на коммерческих страницах, отправили запрос на переиндексацию и через 2 месяца поисковик снял ограничения и убрал красную отметку. Также, в общей сводке рекомендаций «Вебмастера» вы можете увидеть «фатальные проблемы». Они будут выделены красным цветом.
Если хоть под одно из вышеперечисленных способов проверки подпадает ваш случай, тогда пора сфокусироваться на выводе проекта из-под санкций. Но рассмотрим еще один момент.
Могут ли «помочь» и «насолить» конкуренты
Платон Щукин уже давно в своих письмах утверждает, что их алгоритмы работают, как часы и конкуренты не могут повлиять на пессимизацию сайта в результатах выдачи, так как это маловероятно. Однако, на своей практике я неоднократно убеждался в обратном. И бывает практически невозможно отследить источник подобной атаки и все ваши проекты, если только они не ссылочные гиганты с трастовыми доменами, так или иначе попадают в категорию риска.
Что могут сделать конкуренты и где это отслеживать
Рассказываю реальный случай из практики
Отмечу один самый главный метод – это привлечение роботного трафика для увеличения коэффициента отказов. Не так давно на мой сайт лили трафик из сетки Biterika Group. Пришлось полностью находить и блокировать все ip-адреса сервера в файле .htaccess. Потратил я на этого около дня, пока прошарил весь лог-файл. В день было порядка 100 посетителей, время пребывания которых составляло не более 1 секунды.
Это колоссальным образом отразилось на поведенческих факторах и коэффициенте отказов, по Яндекс.Метрике они были свыше 40%, что являлось весьма критичным показателем. Поэтому, если вы видите, что посещаемость вашего ресурса неестественным образом возросла, не спешите радоваться и выясните, что за трафик и реальные ли это пользователи. Как видите, в безопасности не находится ни один сайт. Только если он не гигант с высоким уровнем посещаемости, который вообще никак не отреагирует на мелкие атаки.
Обзор основных причин, по которым сайты попадают под фильтры
● Переспамленные тексты.
В особенности это касается главной страницы и коммерческих разделов. Классика жанра, когда интернет-магазины под карточки товара публикуют SEO-тексты на 2-3 тысячи символов с переизбытком ключевых слов. В качестве альтернативы я рекомендую использовать структуризацию текста. Это, когда текст делится на блоки по 500 или 1000 символов на странице с продающими заголовками, которые содержат не только ключевые запросы, но и маркетинговые фишки в текстах. Такие разбивки по фрагментам гораздо лучше воспринимаются читателем и снижают уровень возможного переспама контента в глазах поисковых систем.
● Накрутка поведенческих факторов.
Используется уже долгие годы многими компаниями, которые подсадили на это и своих клиентов. Как правило, риски обсуждаются заранее. В качестве выхода из этого может быть смена домена при попадании под фильтр. Доверчивый заказчик, которые не хочет долго развивать и работать над своим проектом, а еще в поиске своего рода халявы и быстрых результатов соглашается на это. И не буду спорить, что какое-то время это дает свои плоды. Сайты действительно быстро выходят на первые места, даже в самых конкурентных нишах.
● Вирусы на сайте.
Здесь уже технический вопрос к программисту с точки зрения безопасности сервера и админки. В любом случае в качестве индикатора может служить верный «Яндекс.Вебмастер», который быстро считает вредоносный код и выдаст соответствующее предупреждение владельцу ресурса.
● Покупка временных анкорных ссылок.
Я полагал, что от временных ссылок все отказались еще в далеком 2017 году, но заблуждался. Вебмастеры и SEO-специалисты продолжают использовать данный метод и делают это весьма неаккуратно. Поэтому, уточните у своего специалиста, не применяет ли он этот инструмент для продвижения, чтобы убедиться во всевозможных причинах, которые только могут быть.
● Дублированный контент и CMS-система.
Наверное, я зря поставил его на последнее место в моем списке. Но здесь палка 2 концов, многие владельцы бизнеса в целях экономии разрабатывают сайты на корявых рукописных платформах, которые генерируют код методом js или SPA. Google хорошо научился индексировать такие страницы, а вот Яндекс пока нет. В исходном коде одна информация, а то, что написано на сайте и видит пользователь может полностью не совпадать с этим. Соответственно, поисковики воспринимают такие страницы, как подмену контента.
Основные фильтры и ограничения поисковых систем, применяемые для сайтов
— Песочница. Не фильтр, а ограничение. Как в Яндексе, так и в Google. В Google может длиться от 6 до 12 месяцев. Есть много мнений по поводу того, существует ли данное понятие фильтрации молодых доменов. Но у меня есть свое. Вы можете вывести даже молодой проект в топ, если делаете это качественно и не используете запрещенных способов. Под «качественно» я подразумеваю именно развитие web-ресурса с точки зрения контента, увеличения показателей его полезности. Это именно то, чем я сейчас занимаюсь, помогая вам разобраться в причинах попадания вашего сайта под фильтр в данной статье. Так или иначе, ограничения для молодых сайтов всё же присутствуют. Но в данном случае основной фактор даже не в том, что сайт молод, а в том, что есть конкуренты, показатели которых гораздо выше ваших. Естественно, поисковики учитывают множество сигналов и для того, чтобы как можно быстро выйти из песочницы, как таковой, вам требуется использовать индивидуальные способы продвижения, которые будут кардинально отличаться от используемых конкурентами.
— АГС – фильтр Яндекса. Механизм за долгие годы значительно усовершенствовался и получил множество названий. Его цель – минимизировать воздействие сторонних факторов на результаты выдачи. Как правило, это ссылки и переоптимизированные тексты.
— Алгоритм «Минусинск» от Яндекса. Причиной попадания под этот фильтр может стать покупка ссылок. Всё, что подпадает под неестественное продвижение: покупные ссылки из форумов, ссылочные биржи, крауд-маркетинг. Если вы их используете, есть риск попасть под санкции данного алгоритма. Вопрос в математике и отсутствии естественности продвижения. Но это тема для отдельной статьи. Созрею и будет время – напишу.
— Баден Баден. Яндекс успешно борется с текстовым спамом. Но не исключено, что на вас могут «настучать» или пожаловаться конкуренты, мол, тексты у вас не для людей, а для роботов, примите меры. Такие случаи в моей практике были и неоднократно. И конкретно оптимизированные под SEO сайты попадали под этот фильтр.
— «Пингвин», «Панда», «Колибри». Основные и наиболее известные старые фильтры Google. Наказывают, как за покупку спамных ссылок, так и текстовую оптимизацию. Да и в целом за отсутствие качественного развития. Отмечу, если ваш сайт не занимает лидирующие позиции – это вовсе может не являться причиной санкций, может вы просто не занимаетесь развитием проекта, не наполняете авторским контентом, не работаете над улучшением пользовательского интерфейса.
Как снять фильтр сайта за несколько месяцев или заранее избежать этого
1. Избегать покупки ссылок. Или снять их вовсе. Но, «как тогда заниматься ссылочным фактором, ведь он так важен», — спросите вы. И будете правы. Но платные ссылки – это скорее исключение из правил, чем главный инструмент. Сегодня в интернете существует масса способов привлечь ссылку бесплатно. Для этого вы можете добавить ресурс в Яндекс.Карты или Google.Business. Завести блог на Яндекс.Дзен, опубликовать статью на Vc.Ru, начать вести группу в социальных сетях VK, создать канал в Телеграм. Кстати, канал в TG отлично работает с точки зрения SEO и Яндекс с недавних пор стал индексировать страницы из данного мессенджера и добавлять в свою базу.
2. Убрать SEO-тексты на коммерческих страницах. Не начинайте продвижение сразу же с текстов для коммерческих категорий. Начните с развития блога и, когда достигнете показатель, хотя бы в 100 уникальных посетителей в сутки естественным способом, тогда уже можно постепенно подключать более конкретную оптимизацию. Если сайт попал под фильтр из-за некачественных текстов, что достаточно часто бывает, тогда тексты нужно убрать со всех страниц. Статьи из рубрики «Блог» сюда не подпадают, если только они тоже не перенасыщены запросами.
3. Не накручивать ПФ. Если попали под фильтр по причине данного распространенного способа, тогда у вас 2 пути развития событий:
а) полная смена домена без редиректа старого (который под фильтром) на новый. Из клиентского опыта скажу, что мы несколько раз снимали этот фильтр обновлением домена, но для этого нужно убрать причину, чтобы не передать ограничения автоматом на новый адрес;
б) прекратить накрутку, отправить запрос на пересмотр в Яндекс, мол не вы это, а конкуренты и просто ждать. Здесь уже всё зависит от вас и возраста домена, насколько вам критично будет его потерять.
4. Заниматься контент-маркетингом. Если вы не работаете над статейным маркетингом, тогда у вас больше шансов остаться далеко в поиске, чем попасть в топ, если применять серые способы. Подумайте, может причина в том, что вы просто не развиваете проект на регулярной основе.
5. Обязательно связывайтесь со Службой Поддержки поиска Яндекс. Не стоит умалчивать о проблеме. Напишите об этом в поддержку. Вам, как минимум подскажут, что причина реально есть и сайт под фильтром, а как максимум – укажут на сроки и порядок работ, чтобы выйти из ограничений и как можно скорее.
Какие еще могут быть причины и куда обращаться
Если ваш сайт попал под ограничения поисковых систем, причин может быть множество. Основную часть я постарался подробно расписать выше. Но конкуренты могут использовать способы, куда более изощренные – копировать контент на вашем сайте и распространять их по доскам объявлений, создавать дублированные страницы с похожими доменными именами и многое другое. Вы и вовсе можете на понять и никогда не узнать, что наложены фильтры.
Если вам необходимо выяснить реальную причину, а главное – вывести ресурс из-под фильтра, вы можете обратиться в мое агентство, заказав соответствующие услуги. Я с интересом отнесусь к вашей проблеме и разработаю стратегию по развитию и масштабированию проекта на основе эксклюзивных технологий. Вы забудете, что такое фильтры поисковых систем.
Поможем вывести из из-под фильтра
Проведем комплексную диагностику ресурса на предмет обнаружения проблем, связанных с попаданием под санкции поисковых систем.
Закажите услуги по выводу сайта из-под фильтра от профессионалов под ключ.