Отправляет email-рассылки с помощью сервиса Sendsay
  Все выпуски  

Как вывести сайт из под Пингвина: кейсы и инструкции



Как вывести сайт из под Пингвина: кейсы и инструкции
2015-04-09 11:57 Alex Hodinar
Содержание:

Что делать, если Вы попали под фильтр Google за входящие ссылки?

В апреле 2012 года Google выпустил алгоритм Пингвин, главная цель которого – это борьба с низкокачественным и покупными ссылками. Множество сайтов, которые закупали ссылочное подверглись пессимизации.

Еще через некоторое время Google стал извещать в своей панели (http://www.google.ru/webmasters/) о «ручных» санкциях за входящие ссылки. Слово «ручные» взято в кавычки, так как очень сомнительно, что этот фильтр действительно накладывается вручную.

Итак, мы имеем 2-ве разновидности санкций за входящие ссылки:

  1. Автоматический Пингвин без оповещений
  2. «Ручные» санкции

В первом случае происходит следующая ситуация с трафиком из Google:

Заметить не сложно, тоже самое должно отразится и на позициях.

Заметить «ручные» санкции еще проще – достаточно добавить сайт в панель Google для вебмастеров и в случае чего вам должно прийти «письмо счастья». Или же можно зайти в данную панель в раздел “Поисковый трафик – Меры, принятые вручную” и посмотреть наличие вот такой записи:

Снимаем фильтр Пингвина

Для этого нам понадобится официальный инструмент отклонения ссылок от Google: https://www.google.com/webmasters/tools/disavow-links-main. Поисковый гигант заявляет, что отправив туда файл с плохими сайтами-источниками ссылок, можно улучшить ситуацию. Также поисковик говорит, что все же желательно удалять ссылки, а не отклонять. Но это, скорее всего, связано с дополнительной нагрузкой на Google. Не всегда можно снять ссылки, да и есть ведь Яндекс и Mail, для которых эти ссылки могут работать в плюс. Так что лучше отклонять!

Сбор данных

В первую очередь нужно собрать все ссылки на сайт. Используем несколько источников:

  1. Все покупные ссылки
  2. Из панели вебмастеров Google
  3. Из Яндекс.Вебмастер
  4. Из https://www.linkpad.ru/ (бывший Solomono.ru)
  5. Из http://backlink.page-weight.ru/
  6. Другие ссылки на сайт, если известно об их существовании

Можно взять еще и другие источники, но по опыту можно утверждать, что этих более чем достаточно. Нам нужна как можно более полная картина по входящим ссылкам, только так можно будет сделать полноценный анализ.

Анализ

Предварительно из всех собранных ссылок нужно выделить только уникальные доноры. Далее загоняем их в программу Fast Trust (есть серверная версия https://checktrust.ru/backlinks-checker.html, не обязательно покупать прогу) на анализ.

Нам необходимы параметры:

  • Траст
  • Спам
  • Количество входящих уникальных ссылок
  • Количество исходящих уникальных ссылок
  • Наличие на доноре фильтра АГС от Яндекса
  • Данные по посещаемости из LiveInternet (если счетчик открыт)
  • тИЦ
  • PR

Фильтрация плохих доноров

На основе вышеописанных параметров вычисляем плохие доноры. Сразу выделяем всех, кто под АГС. Далее выделяем тех, у кого СПАМ выше 2. Разработчики Fast Trust советуют не покупать ссылку, если СПАМ выше 10. Параметр 2 был выведен на основе опыта снятия санкции для более чем 100 сайтов. Однако нужно смотреть на трастовые сайты с большим спамом, для них нужно делать скидку и не отклонять.

В целом можно было бы отклонить вообще все ссылки и избавится как от плохих, так и от хороших ссылок. Но нам нужно по максимуму сохранить хорошие линки.
Сайты с ТРАСТом ниже 10 нам тоже не подходят. Далее отсеиваем сайты, если входящих ссылок намного меньше исходящих (но, опять же, обращаем внимание на ТРАСТ). В зону потенциального отклонения также попадают сайты с низкой посещаемостью, а также с нулевыми тИЦ и PR. Это не значит, что при тИЦ 0 сайт плохой и его нужно сразу же отклонять. Смотрите на комбинацию факторов!

Ну удивляйтесь, если в список отклоняемых попадает до 90% всех ссылающихся доноров. Иногда приходится и по 95-98% отклонять, т.к. от Google несколько раз приходит ответ, что не все плохие ссылки еще отклонены и приходится дополнять файл.
Отклоняем ссылки

Нужно создать файл .txt вот такого вида:

Отклоняем именно домены, а не страницы. Вот еще некоторые требования к данному файлу:

  • он должен быть в формате utf-8 без BOM
  • файл не должен содержать ошибок – лишних записей
  • последующая отправка отменяет предыдущую т.е. если будете отправлять файл несколько раз, то старый файл нужно обновлять/дополнять и затем отправлять

Файл нужно загрузить по адресу https://www.google.com/webmasters/tools/disavow-links-main для соответствующего сайта. После загрузки сразу же пишем запрос на пересмотр https://www.google.com/webmasters/tools/reconsideration?hl=ru&pli=1. В тексте пишем что-то вроде: «Нашли все ссылки на сайт, что смогли, проанализировали, отменили ссылки с низкокачественных сайтов». Много писать не нужно. Вообще, скорее всего, этот текст никто не читает.

Нужно обратить внимание, что запрос на пересмотр можно написать только в том случае, если у вас есть отметка о «ручных» санкциях в панели Google (см. выше). Если же данной отметки нет, то приходится просто отклонять плохие ссылки и надеяться. Выйти на переписку с гуглоидами и точно удостоверится в том, что санкции сняты в этом случае нельзя. Также условия фильтрации плохих ссылок в случае без «ручных» санкций более мягкие. Из практики можно сказать, что при «ручных» санкциях отклоняется порядка 80-90% ссылок, а без «ручных» – 50-70%.

Внимание! Нужно точно знать из-за чего у вас просел сайт, если не было извещения в панели Google. Возможно дело во внутренних факторах (фильтр Панда). Также это может быть комбинация Панда + Пингвин.

Вернемся к запросу на пересмотр при «ручных» санкциях. Вот мы написали его и ждем… Ждать ответа приходится, как привило, 2-3 недели. Если пришел ответ, что фильтр сняли – УРА! Если нет, то там должны быть примеры плохих ссылок. В этом случае нужно дополнить файл отклонения этими ссылками + пересмотреть параметры тех сайтов, которые еще не отклонялись, поднять планку качества и еще больше дополнить файл отклонения.

Далее те же действия – отклонить и написать запрос на пересмотр. Так может продолжаться несколько раз, пока не удастся снять фильтр.

Результаты

Вот несколько кейсов:



Не всегда трафик поднимается после съема санкций. Нужно иметь ввиду, что вы проработали только небольшую группу ссылочных факторов, а их гораздо больше. Плюс есть еще внутренние, поведенческие и коммерческие факторы.
Но вообще в целом карма сайта должна улучшиться.

Еще наблюдения

Чем больше мы покупаем ссылок (особенно арендованных аля-sape), тем выше вероятность словить пессимизацию. Еще замечено, что на этот фильтр сильно влияет разнообразие анкор-листа. При скудном анкор-файле получить санкции гораздо более вероятно.

Автор статьи: Андрей Гринь – http://seo-clinic.ru



В избранное