Отправляет email-рассылки с помощью сервиса Sendsay
  Все выпуски  

12 ошибок на сайте, которые раздражают поисковые системы



Спасибо, что живой
Смотрим на сайт глазами поисковых систем

Здравствуйте!

Дорогие читатели
Поисковые роботы смотрят на сайт иначе, чем люди. Им безразличны цвет логотипа, красота шрифта, но важны скучные структурные вещи, о существовании которых хозяин сайта может даже не подозревать. То что нам кажется шедевром, для поисковика может быть мёртвой пустыней. Поэтому чрезвычайно важно смотреть на сайт глазами поисковика. Сегодня мы расскажем как быстро и без знаний в seo проверить сайт на адекватность поисковым требованиям. 

12 контрольных точек на сайте1. Смотрим на title
Title — текст, который отображается в заголовке браузера. Он должен содержать ключевые слова, по которым планируете продвигать страницу. То есть если продвигаетесь по запросу “массаж в Краснодаре”, то слово “массаж”  обязательно должно быть в заголовке. А теперь проверьте главную страницу вашего сайта. Если в заголовке указан самый высокочастотный и важный для вас запрос, а не название компании, то это уже победа :-)

2. Внимательно читаем description
Description — это краткое описание страницы сайта, которое помогает поисковому роботу понять её суть. Чтобы проанализировать есть или нет описание, нужно на интересующей странице сайта правой кнопкой мыши вызвать меню и выбрать пункт “просмотр кода страницы”. С помощью быстрого поиска по странице (Ctrl-F) найти слово “description” и посмотреть вписал seo оптимизатор что-нибудь или нет. 

3. Проверяем наличие файла robots.txt
Файл robots.txt показывает поисковому роботу на что нужно обратить внимание на сайте, а что лучше обойти стороной. На самом деле, просто наличия файла robots.txt мало, важно, чтобы он корректно отображал данные. Но для подробной проверки файла  всё-таки придётся хорошо разобраться  в тонкостях seo оптимизации, что сегодня в наши с вами планы не входит. Для первичного анализа достаточно просто проверить его наличие. Напишите название своего сайта и через слеш robots.txt  (site.ru/robots.txt). Если страница нашлась на сайте, то всё хорошо.

4. Смотрим настроена ли карта сайта
Карта сайта так же как и файл robots.txt помогает поисковому роботу верно изучать сайт. Проверить наличие карты можно так же через слеш site.ru/sitemap.xml

5. Ищем компанию в справочниках Яндекса и Гугла
Проверить есть компания в справочнике Яндекса или нет можно здесь: http://sprav.yandex.ru/, а в справочнике Google здесь:  http://goo.gl/aQ45QH

6. Анализируем скорость загрузки страниц
Время загрузки сайта влияет на скорость индексации и процент отказов от сайта. Ни роботы, ни люди не любят ждать долго.  Тестировать скорость можно в массе сервисов, но за адекватность результатов, мы выбрали http://tools.pingdom.com/. Хороший показатель до 3, 5 s, всё что выше уже диагностирует проблему.
 

Не заставляйте пользователей ждать


7. Оцениваем уникальность текстов
Неуникальные тексты — это зло, кто не верит читайте нашу статью . Проверить весь сайт на уникальность в бесплатных сервисах проблематично, так как проверка идёт постранично. 

Читать далее

Денис Раневский

Директор по развитию
агентства AdVerbs

P.S: 

Я часто слышу негатив в сторону поисковых систем: "Яндекс невзлюбил наш сайт с самого начала", "Этот Google вообще непонятно, что в ТОП продвигает!". Неодушевлённых роботов воспринимают как людей, которые судят пристрастно и эмоционально. Но это далеко не так. Есть жёсткие и понятные правила, которым должен соответствовать сайт. И если мы их не исполняем или не знаем, то, как говориться, "нечего на зеркало пенять..."


Еще по теме


 
5 удобных CRM для бизнеса. Сложные, но благодарные поиски.
 

Скажем блокнотам нет. Польза CRM и ошибки внедрения. 



В избранное