Отправляет email-рассылки с помощью сервиса Sendsay
←  Предыдущая тема Все темы Следующая тема →
пишет:

Принципы и варианты генерации карты сайта для поисковиков

Понятным языком о том, для чего создается карта сайта, предназначенная роботам поисковых систем, как ее построить различными способами, загрузить на сервер и добавить в панели для вебмастеров.

Прежде чем перейти к основной части статьи, замечу, что необходимо различать карту веб-сайта, выполненную посредством файла с расширением .xml, от сайтмапа для пользователей в формате HTML.

Основное их отличие в том, что первый вариант удобен для ботов поисковиков и не находится в зоне прямой видимости, а второй, содержащий структурированный перечень ссылок на все web-страницы ресурса, доступен посетителям и играет роль средства навигации при их "путешествии по сайту" (кстати, HTML-вариант иногда используется и поисковыми системами при индексации в качестве дополнительного инструмента, особенно, когда проект включает много материалов).

Ниже мы подробнее рассмотрим, каков должен быть синтаксис и содержание файла «sitemap.xml» (кстати, он может носить и другое, произвольное название, об этом тоже поговорим) и какие варианты его создания существуют (вручную, с помощью онлайн-генераторов или плагинов).

Какова роль файла sitemap и его связь с robots.txt  

Думаю, во вступительной части статьи я вас убедил в том, насколько важна карта сайта, которая создается в формате XML. Многие молодые вебмастера совершенно напрасно игнорируют этот шаг, что может привести к серьезному замедлению раскрутки ресурса. Не повторяйте их ошибок и каждый раз при создании сайта составляйте сайтмап, вреда это точно не принесет, а вот пользы в виде ускорения индексации страниц может быть немало.

Почему важно создавать сайтмап именно на современном этапе? Если отмотать десяток лет назад или даже чуть более, то в сети попадались исключительно ресурсы, содержавшие набор HTML-страничек, которые практически все несли полезный контент и предназначались к индексации.

Поэтому это облегчало задачу роботам поисковиков, которые сканировали подобные проекты и забирали в индекс все подряд. Сейчас же мы живем в эпоху CMS (систем управления контентом сайта, в просторечии именуемых движками), которые автоматизируют процесс создания сайтов. Но здесь есть и обратная сторона медали.

Все эти движки, включая самый популярный в мире WordPress, генерируют массу "мусорных" страниц и дублей, не содержащих нужного пользователям контента, попадание в индекс которых грозит обернутся жесткими санкциями со стороны поисковых систем. Вот поэтому-то и возникла необходимость как-то упорядочить процесс индексирования, чтобы отделить мух от котлет. Эту роль наряду с sitemap.xml выполняет и файл robots.txt, который работает с ним в связке.

Первый позволяет вам указать ботам (роботам) поисковиков, какие страницы вашего ресурса имеют полезное содержание, вследствие чего подлежат попаданию в индекс. Это позволит до минимума сократить время сканирования проекта, что будет ему только в плюс.

Ну а второй, robots.txt, с помощью соответствующих директив недвусмысленно показывает также и то, куда залезать не стоит. В результате боты Яндекса и Гугла не будут действовать "вслепую" и не сунутся туда, где находятся вспомогательные объекты (скажем, те же файлы движка).

Как создать карту сайта XML

Это интересно
0

29.01.2019
Пожаловаться Просмотров: 128  
←  Предыдущая тема Все темы Следующая тема →


Комментарии временно отключены