Отправляет email-рассылки с помощью сервиса Sendsay
  Все выпуски  

Профессиональное продвижение сайтов. Пособие от SeoPult



SeoPult Выпуск №76:
Типичные ошибки
внутренней оптимизации
 
 
 

13-го декабря в Обучающем Центре CyberMarketing состоится мой бесплатный семинар «SeoPult от первого лица». Большую часть времени я буду отвечать на ваши вопросы, так что присылайте их на seminar@cybermarketing.ru. И не забудьте зарегистрироваться!

С уважением, Николай Евдокимов, руководитель Системы SeoPult.






 

Новости SeoPult


Новости Обучающего Центра CyberMarketing



Ура, новый семинар! 20 декабря Богдан Шевченко, специалист QIWI, расскажет все о платежных инструментах для интернет-магазинов. Все владельцы электронных торговых точек изучали этот вопрос, но время не стоит на месте: приходите, и вы узнаете, как можно облегчить жизнь и себе, и покупателям.

С уважением, Мария Трушкова, координатор Обучающего Центра CyberMarketing.



Практика поискового маркетинга


Типичные ошибки внутренней оптимизации


Три года назад SeoPult использовали, в основном, специалисты по поисковому продвижению, но сейчас с помощью Системы свои сайты продвигают не только и столько профессионалы. Судя по проектам, которые нам присылают на аудит в рубрику «В ТОП без гирь!», а также по отчетам техподдержки и «Персональных менеджеров», очень многие сайты имеют недостатки, препятствующие продвижению. Часто пользователи серьезно занимаются оптимизацией своих ресурсов, и в целом сайты могли бы занимать нужные позиции даже по высококонкурентным запросам – но один-два небольших недостатка этому мешают. Эти недочеты можно устранить за 5-10 минут: надо только знать о них (и знать, как их исправить). Профессионалам SEO эти проблемы могут показаться очевидными, но обычному новичку, вкладывающему свои собственные деньги в продвижение, устранение типичных недостатков может дать просто колоссальный прирост позиций и трафика.

Мы уже неоднократно поднимали тему внутренней оптимизации, но есть воистину вечные вопросы, и мы обязаны давать на них ответы. В самостоятельной битве за идеальную внутреннюю оптимизацию начать стоит с проверки сайта по чеклисту из рассылки №33 и внимательного изучения уже проделанных аудитов рубрики «В ТОП без гирь». Если у вас нет времени и желания искать иголку-ошибку в стоге сена, всегда можно подключить к проекту в Системе услугу «Персональный менеджер», и наши специалисты найдут все недочеты, препятствующие продвижению в лидеры поисковой выдачи. Но если вы уверены в своих силах или хотите развивать свои скиллы в области SEO, то в этой рассылке сможете прочитать о самых частых (согласно нашей статистике) проблемах с внутренними факторами ранжирования.

«Ибрагим двадцать раз перечел это письмо, с восторгом целуя бесценные строки». (А.С. Пушкин, «Арап Петра Великого»)

C www и без
Для поискового робота страницы www.site.ru/krot.html, site.ru/krot.html и site.ru/krot.html/ и так далее – разные. Но при создании сайта и добавлении страниц очень многие об этом забывают. Если робот поисковой системы увидит на сайте кучу дублей, то есть одинаковых страниц, отличающихся только URL (адресом), то он будет их склеивать – то есть объединять, выбирая основную страницу, которая останется в индексе. И если эту склейку не направлять, она может стать произвольной – в индексе будут страницы с www и без, с закрывающими слэшами и без. Во-первых, это немного уменьшает доверие поисковика к сайту, во-вторых – может вызвать потери ссылочного веса: вы купили ссылки на www.site.ru/krot.html, а в индексе оказалась страница без www.
  • Указать главное зеркало директивой Host в robots.txt.
  • Указать главное зеркало в «Яндекс.Вебмастере» («Настройка индексирования → Главное зеркало»).
  • Настроить редирект с кодом 301 со всех дублей на страницы, которые должны остаться в индексе. Редирект настраивается либо с помощью CMS (системы управления контентом), либо в служебных файлах веб-сервера (если это Apache, то работать нужно с файлом .htacess).
Мусор в индексе
Нужно запрещать роботам поисковиков индексировать страницы с результатами поиска по вашему сайту, гостевую книгу, корзину и все остальное, что не является страницами с полезным контентом, которые должны попасть в выдачи «Яндекса» и Google.
  • Запретить индексацию служебных, приватных и пустых страниц с помощью директивы Disallow в robots.txt. Важно проверить, что при этом все нужные страницы разрешены для индексации.
Одинаковые Title (тайтлы, заголовки страниц)
Многие CMS генерируют одинаковые и неоптимальные заголовки страниц, что может привести к неправильной склейке или даже исключению из индекса. Неправильные тайтлы многие прописывают и «руками», поскольку считают придумывание разных заголовков слишком муторным занятием. Также Title часто используются поисковиками при составлении сниппетов, поэтому их качество прямо влияет на кликабельность и количество посетителей.
  • Title всех страниц должны быть разными.
  • В начале каждого заголовка нужно употребить ключевые слова, по которым продвигается страница – но не перечислением, а правильной фразой.
  • Даже на самом «Яндексе» в тайтлах сначала идет описание страницы, а потом (и не всегда, чаще на старых страницах) – название сайта. Название сайта лучше либо совсем не писать в тайтле, либо вставлять его в самом конце, отделяя с помощью тире.
Спам-контент и исходящие ссылки
На многих сайтах до сих пор встречаются огромные переоптимизированные «простыни», скрытые или написанные очень мелким шрифтом тексты, несколько заголовков H1 на страницах, перечисления ключевых слов через запятую – все это в конце 2011-го уже неприемлемо. Тексты должны быть интересными, тематическими и содержать ключевые слова в читабельной и логичной пропорции. Страницы необходимо делать для людей, так как поисковые системы стали намного более «человечными». Еще одна распространенная ошибка – попытки торговать ссылками и одновременно продвигать сайт в ТОП.
  • Убрать спам-контент и ошибки верстки.
  • Убрать исходящие ссылки, а при необходимости какие-то оставить – закрыть атрибутами noindex и nofollow.
  • Убрать «линкопомойки», разделы для обмена ссылками и линкфармы.
  • Убрать «продажные статьи».
Неуникальный контент
Чтобы сайт стал лидером поисковой выдачи, контент его страниц должен быть уникальным. Это правило практически не допускает исключений.
  • Если вы заимствовали тексты, напишите свои.
  • Если вы писали тексты сами, проверьте, не украли ли их – поможет сервис http://www.copyscape.com.
  • Все новые тексты перед добавлением на сайт обязательно скармливайте «Яндекс.Вебмастеру» для закрепления права первоисточника («Содержимое сайта → Оригинальные тексты»).
Под фильтром?..
Если сайт попал под один из фильтров поисковой системы (у «Яндекса» чаще всего срабатывают «АГС», «Ты последний» и аффилиат-фильтр), нужно приложить все усилия для «очистки кармы» сайта.
Вывод

Как вы можете убедиться, для устранения перечисленных выше недостатков не требуются большие деньги или десятки часов времени. А вот сэкономить деньги и время вполне даже можно. Устраните ошибки на сайте, и Система SeoPult легко выведет его в ТОП по всем нужным вам запросам.


 

В ТОП без гирь: аудит сайта от Николая Евдокимова



Здравствуйте! Я работаю администратором сайта linkxy.ru, это интернет-магазин молодежной одежды, в основном футболок. В данный момент мне поручили заниматься его продвижением, но в этом вопросе я не очень хорошо разбираюсь, по этому прошу Вас сделать аудит. На данный момент я провел регистрацию в каталогах, купил ссылку в статье, а также запустил кампанию в SeoPult по словам: футболки москва, длинные футболки, дешево интернет магазин, клубная одежда, женские футболки,дизайнерские футболки, флюра, флюро, принты на футболки. Сайт работает на CMS «Битрикс», версия «малый бизнес».

Заранее спасибо, Александр Комаров.

Аудит сайта читайте в нашем блоге.

Ваши заявки на аудит контекстной рекламы и SEO-аудит присылайте на pr@seopult.ru.

 
Новости поискового маркетинга

 
 
«Яндекс» запустил новые сниппеты
В официальном блоге разработчики сообщили о новых принципах формирования сниппетов в поисковой выдаче. Ранее содержимое сниппета основывалось на теге title, теперь поисковик может игнорировать содержимое этого тега. Когда тайтл не содержит слов из запроса и плохо отражает контент страницы, сниппет формируется из заголовков текста.

Еще одна особенность – прописные буквы в тексте сниппета автоматически приводятся к нижнему регистру. При этом поисковик учитывает аббревиатуры, собственные имена и другие слова.

«Яндекс» расширяется – теперь и Польша
Ведущий поисковик Рунета продолжает экспансию за рубеж. На днях стало известно, что крупный чешский портал Seznam собирается использовать алгоритмы, разработанные специалистами «Яндекса», для поиска видео. Уже есть несколько подтверждений, что следующей после Турции целью станет Польша. Например, в «Маркере» сообщается, что в Польше уже ведет активную деятельность директор по развитию «Яндекса» Богдан Вишневский. В том же источнике упоминаются планы по покупке крупнейших польских порталов onet.pl и wp.pl. Стоит напомнить, что это не первый шаг в сторону польского рынка. В далеком 2001 году руководство «Яндекса» уже пыталось развернуть проект Yandex.pl, но тогда они потерпели крах из-за пресловутого кризиса доткомов. Но сегодня ситуация изменилась, и «Яндекс» вполне может потеснить Google на польском рынке веб-поиска.

Мэтт Каттс о HTTPS и ранжировании
Мэтт Каттс в своем новом видео развеял миф о негативном влиянии протокола HTTPS на ранжирование сайтов. Уже не раз оптимизаторы опасались, что снизить позиции в поисковой выдаче может «тормознутость» данного протокола. Так как HTTPS использует шифрование данных, скорость передачи данных по этому протоколу ниже, а это в свою очередь может негативно повлиять на ранжирование сайта, так как алгоритмы Google учитывают этот фактор. Мэтт Каттс заявил, что использование этого протокола для сайтов вполне оправдано, и поставил в пример PayPal, который использует HTTPS. Шифрование данных снижает скорость передачи данных, но не настолько сильно, чтобы повлиять на позицию сайта в поисковой выдаче. В свою очередь команда разработчиков делает все для того, чтобы защищенный протокол HTTPS не влиял на положение сайта в рейтинге. Только чрезмерно медленная загрузка может стать причиной снижения положения в SERP, но это частный случай, вероятность которого крайне мала. Причиной в подавляющем большинстве случаев является не HTTPS, а другие факторы.

AdSense: работа над ошибками
Google AdSense разместил статью о том, как правильно настраивать файл robots.txt. Этот материал положил начало серии публикаций, которую специалисты компании назвали «Ошибки сканирования AdSense». По словам разработчиков, причинами для запуска этого цикла статей стали частые ошибки пользователей из-за отсутствия базовых знаний. По причине неправильной настройки или отсутствия файла robots.txt возникают ошибки сканирования. Робот AdSense иногда просто не может попасть на сайт.

«Яндекс» оповещает о заражении по почте
Команда безопасного поиска «Яндекса» сообщает, что теперь всем владельцам сайтов, на которых обнаружен вредоносный код, будет высылаться оповещение. Если раньше такие письма получали только пользователи сервиса «Яндекс.Вебмастер», то теперь это будет доступно всем владельцев сайтов.

Уведомления будут поступать на почтовый адрес, который указан в whois или по стандартным техническим (webmaster@, root@, postmaster@ и т.д.)

На такой шаг разработчики пошли из-за того, что на каждом пятом сайте вредоносный код остается более года, а владельцы об этом попросту и не подозревают (как и о существовании «Яндекс.Вебмастера»). Примерно 3 тысячи зараженных сайтов обнаруживается «Яндексом» каждый день!

Google отчитывается о нововведениях за последние 2 недели
Улучшенные результаты по похожим запросам
Уже давно известно, что Google подставляет в выдачу некоторое количество результатов, которые близки, но не на 100% релевантны именно изначальному запросу. Теперь вероятность высокого ранжирования таких результатов существенно понижена. Иногда эти близкие результаты только мешали пользователю.

Более обширная индексация
Сущность этого нововведения состоит в увеличении значения long-tail запросов. Теперь они чаще будут появляться в результатах поисковой выдачи.

Новый классификатор «паркованных» доменов
Начинает работу новый алгоритм, направленный на поиск запаркованных доменов. В большинстве случаев поисковик исключает из выдачи такие ресурсы.

Об остальных нововведениях вы сможете прочитать в официальном отчете команды разработчиков.  


 

Окно в буржунет


Насколько умны поисковые роботы?
Майкл Кинг – программист и веб-разработчик, занимается SEO с 2006 года. Начал карьеру в Microsoft в качестве вебмастера, потом работал в других компаниях, среди которых DigitalPersona и WildTangent. В Razorfish работал с Ralph Lauren, ADT, State Farm, Hawaiian Airlines, T. Rowe Price, Citibank. В настоящий момент Майкл возглавляет отдел SEO компании Publicis Modem, проводит аудиты сайтов, а также профессионально занимается музыкой.

Мэтт Каттс во время конференции Pubcon объявил, что Googlebot может работать с AJAX-страницами – например, индексировать комментарии на Facebook. Так совпало, что это заявление было сделано всего через несколько часов после того, как я обнародовал исследование Джошуа Гиардино, в котором высказано предположение, что Googlebot – это headless browser (браузер без графического пользовательского интерфейса), сделанный на основе кода Chromium. И теперь я собираюсь оспорить заявление Мэтта Каттса. Googlebot не только что поумнел, он уже некоторое время не является текстовым пауком; как не являются им ни BingBot, ни Slurp. Все свидетельствует о том, что поисковые роботы (Search Robots) – это headless browsers, и у поисковиков такая функция появилась еще в 2004 году.

Оговорка: Я не работаю ни на какой поисковик. Все сказанное здесь – теоретические умозаключения, основанные на патентных исследованиях (моих и Джошуа Гиардино), а также на некоторых указаниях Билла Славски и анализе поисковой выдачи.


Что такое headless browser?
Headless browser («безголовый браузер») – это полноценный веб-браузер без визуального интерфейса. Как и все TSR-программы (резидентные программы), он запускается без какого-либо оповещения на экране компьютера, но с ним могут взаимодействовать другие программы. Headless browser можно управлять с помощью командной строки или скриптового языка: можно загрузить страницу и алгоритмически исследовать данные, которые увидит пользователь Firefox, Chrome или (тьфу!) Internet Explorer. Ванесса Фокс намекает, что Google именно таким образом просматривал AJAX уже в январе 2010 года.

Однако поисковикам удалось бы убедить нас в том, что их пауки все еще походят на браузер Lynx и могут только видеть и понимать текст и его метки. В целом, они приучили нас верить, что Googlebot, Slurp и Bingbot не похожи на Пэкмена. Нам внушают, что они обрабатывают информацию, не понимая, откуда она и что означает. Представьте, что пунктирная линия, которую «проглатывает» Пэкмен – это веб-страницы. Время от времени он натыкается на стену и меняет направление. Представьте, что SEO – это такие таблетки силы. Представьте, что «призраки» (та синяя штука на картинке) – это технические проблемы SEO, о которые Пэкмен споткнется, и которые не позволят ему добраться до вашей страницы. SEO помогает пауку поисковых машин «съесть» этот призрак; а если сайт не оптимизирован, то Пэкмен умирает и возрождается на другом сайте.


Именно этот принцип нам предлагают уже много лет. Единственная проблема – это уже не так. Но будем справедливы: Google обычно не врет, а недоговаривает, поэтому это наша вина, что мы так долго не могли всего этого понять.

Советую вам прочитать исследование Джоша целиком, а здесь приведу некоторые основные моменты:
  • Патент, зарегистрированный в 2004 году под названием «Деление документа на основании визуальных пробелов», содержит обсуждение методов, которые Google использует для визуального отображения страниц и создания моделей DOM (объектных моделей документов), чтобы лучше понимать контент и структуру страницы. Ключевая цитата из этого патента гласит: «Также могут использоваться и другие методы создания соответствующих значений веса – например, на основе изучения поведения или исходного кода программ или при помощи размеченной вручную группы веб-страниц для автоматической установки мер веса через процесс обучения машины».

  • Хитрый мистер Каттс на конференции Pubcon намекнул, что GoogleBot скоро будет учитывать, что происходит в той части страницы, которая видна без прокрутки, в качестве показателя качества восприятия пользователем, представив это как новую функцию. Это любопытно, так как согласно патенту от 17 июня 2004 года под названием «Ранжирование документов на основе характеристик и/или поведения пользователей», эта функция существует уже семь лет. В ключевой цитате этого патента описываются «примеры характеристик, связанных со ссылкой, могут включать размер шрифта анкора, относящегося к ссылке; расположение ссылки (измеряемое, например, в списке HTML, в бегущей строке, выше или ниже первого экрана содержимого страницы, просмотренной в браузере с разрешением 800 на 600 пикселей, стороне (верхней, нижней, левой, правой) документа в нижнем колонтитуле, боковой колонке и т.д.); есть ли ссылка в списке, расположение ссылки в списке; цвет шрифта и/или атрибуты ссылки (например, курсив, полутона, совпадающий с фоном цвет и т.п.)». Это свидетельствует о том, что Google уже какое-то время учитывает границы экрана. Я бы также сказал, что эта функция действует прямо сейчас, так как существуют моментальные превью, на которых страницы обрезаны там, где Google видит начало полосы прокрутки.

  • Не секрет, что Google уже некоторое время в известной степени использует JavaScript, но «Поиск по контенту, доступному через веб-формы» указывает на то, что Google использует headless browser, чтобы производить действия, имитирующие работу пользователя. «Многие сайты часто используют JavaScript для преобразования строки вызова метода перед отправкой данных в форму. Это делается для того, чтобы предотвратить загрузки пауком. Эти веб-формы невозможно легко активизировать автоматически. В разных вариантах для обхода используется эмуляция JavaScript. В одном из вариантов реализации запускается простой клиент браузера, который работает с JavaScript». Хм-м-м, интересно.
Google также принадлежит значительное число патентов IBM, и это при всех их замечательных исследованиях удаленных систем, параллельной обработки данных и безинтерфейсных систем – например, патент под названием «Одновременная сетевая конфигурация множества систем без интерфейса». Хотя Google и сам несомненно проводил широкие исследования в этих областях.

Не стоит забывать и о патенте, принадлежащем Microsoft, который называется «Эффективное определение режима работы скрипта путем регулирования браузера», который не оставляет возможностей для разночтений, так как там во многих местах говорится, что Bingbot – это браузер. «Метод анализа одного или нескольких скриптов, содержащихся в документе, для определения, выполняют ли эти скрипты одну или несколько заданных функций; этот метод включает в себя следующие шаги: идентификация путем выбора из одного или нескольких скриптов тех, что соответствуют одной или нескольким заранее заданным функциям; расшифровка одного или нескольких соответствующих скриптов; перехват сигнала внешней функции от одного или нескольких соответствующих скриптов во время расшифровки одного или нескольких соответствующих скриптов, сигнал внешней функции направляется на объектную модель документа, обеспечивая характерную реакцию, вне зависимости от объектной модели документа, на сигнал внешней функции; запрос браузера на создание объектной модели документа, если характерная реакция не обеспечила дальнейшую работу соответствующих скриптов; обеспечение специальной реакции, получаемой с учетом созданной объектной модели документа, на сигнал внешней функции, если браузер получил запрос на создание объектной модели документа». Действительно, любопытно.

Более того, в феврале 2005 года Yahoo зарегистрировал патент, озаглавленный «Методы просмотра динамического веб-контента», в котором написано: «Архитектура программной системы может быть разной. На рис. 1 показан пример архитектуры, в которой модули объединены с традиционным поисковым роботом и движком браузера, который здесь действует как обычный веб-браузер без пользовательского интерфейса (иначе говоря, “headless browser”). Леди и джентльмены, мне кажется, это неоспоримое доказательство. Дальше в этом патенте говорится о автоматическом и ручном заполнении форм и методах применения JavaScript.


Поисковые роботы на самом деле напоминают Пэкмена, но не тот рот без лица, в который мои родители играли в барах и игровых автоматах в середине 80-х. Googlebot и Bingbot больше похожи на трехмерного Пэкмена с глазами, носом и конечностями, на которого мы не обращаем внимания на консольных системах с 90-х годов. Этот Пэкмен может драться, пинаться, прыгать и молниеносно передвигаться по сети в четырех измерениях (4-е – это время, см. обновления). Иначе говоря, поисковые пауки могут обрабатывать информацию со страницы так же, как мы видим ее в своих браузерах, и они достигли такого высокого уровня способностей, что могут имитировать пользователя.

Вы когда-нибудь читали ЛСКП (лицензионное соглашение для конечного пользователя) для Chrome? Да, я тоже не читал, но, как и в большинстве продуктов Google, вас просят согласиться на применение программы, в которой ваши данные об использовании отправляются Google. Предполагаю, что эти данные используются не только для информирования алгоритма ранжирования, но и как средство обучения алгоритмов Googlebot – чтобы научить его заполнять определенные поля и формы. Например, Google может использовать данные, вводимые пользователем, для определения, какие данные вводятся в какое поле, а затем программным путем заполнить формы сгенерированной информацией такого же типа. Если 500 пользователей введут свой возраст в поле «Возраст», у робота будут данные о том, что в это поле надо вводить возраст. Поэтому Пэкмен больше не натыкается на двери и стены: у него есть ключи, и он может войти через парадную дверь.


 
 
Ответы на вопросы

 
 
Вопрос: Пытаюсь зайти в свои аккаунты, в момент авторизации сначала пишет «привет, такой то», а потом «Вы не имеете разрешения для входа в эту зону. Пожалуйста, авторизуйтесь» – и так по всем аккаунтам. Обычно я захожу с рабочего компа, а т.к. заболел и сижу дома, то хотел зайти с домашнего, но не смог. Что делать?

Ответ: Проверьте системную дату – она должна быть правильной. В браузере нужно очистить кэш и сбросить куки. Если войти все же не получится, необходимо сообщить свой логин или ID техподдержке, мы сбросим все активные сессии пользователя.

Вопрос: Как лучше будет закупать ссылки: подключить SeoPult Max и закупать ссылки только на бирже Trustlink? Или пусть специалист создаст нам фильтры для покупки ссылок?


Ответ: Лучше всего будет подключить SeoPult Max, но при этом не ограничивать закупку – алгоритм сам выберет оптимальные площадки. Ограничить закупку только биржей TrustLink стоит, если ваша цель – получить только самую качественную ссылочную массу, и это позволяет бюджет. Если же требуется экономить деньги, ограничивать закупку одной биржей не стоит. А вот помощь специалиста будет полезной, только если он действительно профи очень высокого класса. И, скорее, для внутренней оптимизации, но не для закупки ссылок.


 
     
   

SeoPult.ru: автоматизированное продвижение сайтов seo@seopult.ru
 
 

В избранное