Всем кому приходилось создавать сайты известен файл robots.txt, который дает указания поисковым роботам. В некоторых случаях это больше похоже на рекомендации чем указания, все дело в том что, к примеру, Google может не адекватно реагировать на ваши запреты и все равно добавлять запрещенные страницы в свой "сопливый" индекс.
Если разрешить индексацию всего сайта на WordPress, без соответсвующих внутренних настроек, тогда ваш сайт быстро загнеться от дублей страниц, тоесть однозначно попадет под фильтры поисковиков что нам крайне не нужно.
По этой причине есть необходимость знать как правильно написать рекомендации в роботс и какой комплекс действий еще провести для полной защиты сайта от дублирования.
Пример и подробное описание правильного robots.txt для WordPress можно посмотреть по указанной ссылке.
Это интересно
0
|
|||
Комментарии временно отключены