По заявлению поисковой системы Yandex(Яндекс), большая часть сайтов Рунета – поисковый спам. Эти сайты либо не содержат никакой ценной для посетителя информации, либо, вообще, состоят лишь из одной страницы. К поисковому спаму относятся любые действия, направленные на обман поисковых систем, с целью вывода сайта в Тор поисковой выдачи. К поисковому спаму относятся дублирование страниц сайта, дорвеи, свопинг, редирект, несоответствие
ключевых слов содержимому сайта и т.д. Доля поискового спама и впрямь достаточно велика среди сайтов. Естественно, все веб-мастера желают занять первые места для своих сайтов в поисковой выдаче; ведь, чем выше в Торе находятся сайты, тем больше целевых посетителей, а это – деньги, либо потенциальные покупатели. Так что: цели-то у всех одни, вот только методы достижения оных могут быть разными.
Дорвеи.
Дорвеи –
это страницы или небольшие сайты, оптимизированные под определенные запросы или фразы. Посетители, пришедшие на эти страницы, перенаправляются на другой – раскручиваемый сайт. Редирект происходит автоматически либо за счет мета-тега refresh, либо при помощи JavaScript или сценария cgi.
Так или иначе, посетитель был перенаправлен на “нужный” сайт (сайт реципиент), причем, зачастую, дорвеи делаются под определенную поисковую систему. Дорвеи, не являясь, основным сайтом, способны
привести гораздо больше посетителей на ресурс, чем любой высокочастотный запрос ВЧ, даже, если они оптимизированы под низкочастотные запросы (НЧ запросы). Вот их главная особенность, которой и пользуются некоторые веб-мастера, пытаясь как можно больше привлечь посетителей на свой сайт.
Неся в себе определенный алгоритм, содержащий один или несколько интересуемых запросов, по которым и происходит распознавание “нужного” сайта, дорвеи являются неплохим методом привлечения посетителей. К
тому же, один дорвей способен перенаправлять посетителей на несколько сайтов. Вот только, поисковыми системами они не одобрены и расцениваются, как спам.
Редирект.
Редирект (перенаправление) происходит либо при помощи Java скриптов, либо cgi сценариев, либо мета-тег refresh. Мета-тег refresh – самый наихудший вариант, потому как его использование очень быстро будет обнаружено поисковыми ботами. В то время как скрипты поисковые
системы читать не умеют. Вот почему JavaScript и cgi скрипты являются наиболее распространенными.
Дублирование веб-страниц.
Страницы одного сайта, имеющие похожий или одинаковый контент, будут расцениваться поисковыми системами, как поисковый спам. Полное или частичное дублирование контента на страницах одного сайта, можно встретить там, где из стремления увеличить количество страниц, при отсутствии контента, веб-мастера начинают
клонировать страницы. Оптимизируя их под разные, а, зачастую, и под одни и те же поисковые запросы.
Подобные сайты очень быстро начинают терять страницы в индексе и рискуют выпасть из индекса вовсе.
Наполнение страниц ключевыми словами.
Существует ещё одна разновидность поискового спама – это чрезмерное наполнение страниц сайта ключевыми словами и фразами.
К этому способу обращаются, когда хотят оптимизировать
одну страницу сразу под большое количество запросов. Для этого вводят эти поисковые запросы и фразы на страницу сайта либо очень мелким шрифтом, либо, окрашивая текст под основной фон страницы. Т.е. идет просто набивание текста ключевыми запросами, находящиеся не в самом контенте, а за его пределом. Благодаря этому можно вывести одну страницу в Тор поисковой выдачи. Поэтому поисковые системы ведут активную борьбу с подобного рода “продвижением”. Уже сейчас страницы, содержащие в себе текст,
шрифт которого меньше 8, приравнивается к поисковому спаму.
Текст, окрашенный под основной фон сайта, человеческому глазу невиден вообще, зато с легкостью виден поисковым ботам. Именно они, считывая ключевые фразы, выводят сайт на первые позиции выдачи. Однако, эффект от такого “продвижения” – краткосрочный, уже сейчас ресурс могут забанить, если он содержит слишком много ключевых фраз или, тем более, содержит текст мелкого шрифта, а также текст, окрашенный под фон страницы. Сюда
же можно отнести и размещение на странице картинки (изображения), величиной в один пиксель. Где ключевые слова прописаны в параметре alt. Как известно, этот параметр (alt) тега <img> предназначен для описания изображения, если в настойках браузера показ изображений был отключен. Никто вам не запрещает прописывать в этом атрибуте тега <img> ключевые запросы, которые видны поисковым системам, вот только не стоит размещать изображение величиной в один пиксель (1 pixel).
Сайты попадают в раздел
поискового спама не из-за наличия поисковых фраз (ключевиков) в параметре alt, а из-за присутствия невидимого изображения.
Свопинг.
Свопинг – разновидность поискового спама, когда создается сайт, оптимизированный под конкретные запросы. Но, после успешной индексации и достижения определенных целей, например, выход в Тор по некоторым ключевым запросам, происходит частичная или полная замена содержимого сайта. Для этого оптимизируют
и продвигают отдельные страницы, затем, после замены содержимого, сайт какое-то время функционирует так, как было задумано веб-мастером. Затем, после повторного посещения поисковым роботом этой же страницы, позиции в поисковой выдаче начнут падать, т.к. новое содержимое может не соответствовать заданным ключевикам. Основная цель свопинга – не поисковые системы, а, скорее, обман посетителей, за счет предоставления им подложной информации.
Клоакинг.
Посредством клоакинга можно выйти на первые позиции поисковой выдачи путем обмана поисковых систем: предоставляя поисковому роботу одну страницу, а посетителям – другую. Единственным возможным ответом на вопрос: зачем использовать клоакинг, вижу то, что никакие ограничения в оформлении сайта для вас не будут существовать. То, что хотели бы показать посетителю вы, может сильно отличаться от того, что может “разрешить” поисковик, не применив к вашему сайту никаких санкций. Использование клоакинга поможет вам в воплощении ваших разработок и идей, как веб-дизайнера.
Существует два метода клоакинга:
Метод определения IP.
Подключаясь к интернету, вы имеете определенный IP адрес; неважно, статический или динамический, в любом случае, IP адрес будет присутствовать. Точно так же и любой поисковый бот имеет свой ip-адрес. Поэтому, этот метод сводится к определению IP адреса посетителя и сравнение его с некой базой ip-адресов поисковых
роботов. Если на сайт пришел действительно посетитель, то по определенному алгоритму ему будет показана одна страница, если пришел поисковый бот – ему будет показана другая страница. Причем, она тоже будет оптимизирована, будет содержать ключевые запросы в контенте. Однако, можно не заботиться о том, как будет написана статья, ибо, кроме поискового бота – её никто не увидит. Главным недостатком метода определения IP адреса заключается в проверке, корректировке и замене базы адресов ботов, что
стоит немалых денег.
Метод определения UserName.
Суть данного метода похожа на предыдущий метод, только сравнивание происходит не по ip-адресу, а по UserName. Т.е. необходимо знать UserName поисковых роботов.
В заключении хочу сказать, что любые проявления поискового спама жестоко караются поисковыми системами, поэтому, прибегнув к одному из них, хорошо подумайте, будет ли это того стоить. Если вы создаете проект надолго, а не на месяц
– два, то я бы воздержался от использования поискового спама, отдав предпочтение “белой” раскрутке и продвижению сайта.