Интереснейший факт для оценки показателя, какое количество веб-мастеров сегодня задумывается о продвижении своего сайта. 11 июня сервис для регистрации сайта в каталогах http://www.1ps.ru зафиксировал 200-тысячный сайт. Двести тысяч сайтов - цифра сравнима с объемами Рунета. Поздравляем владельца 1PS Вячеслава Панина с этим достижением!
Много это или мало - двести тысяч за более чем пять лет работы сервиса?.. Вот еще одна цифра. Сегодня, 19 июня 1PS показывает (см. на сайте на самом верху главной страницы), что услугами сервиса воспользовались уже 202342 сайта. Считаем: 19-11=8, 202342-200000=2342, 2342/8 = 293 сайта ежедневно регистрируются в каталогах с целью продвижения. И это с помощью только одного сервиса.
Это отличный показатель. Он, на мой взгляд, хорошо иллюстрирует, что поисковая оптимизация не удел небольшой группки наиболее "продвинутых" специалистов и сайтовладельцев. SEO - массовое явление, активно преобразующее Сеть и поисковые системы.
* * *
Игорь Гуров на своем блоге опубликовал документ "Покупка ссылок. Памятка покупателю". В данном руководстве - шесть правил, которых следует придерживаться, покупая ссылки для продвижения. Плюс ссылка на неплохой калькулятор стоимости.
* * *
Константин Рощупкин провел анализ количества новостей большой тройки Рунета (Яндекс, Рамблер, Mail.ru) за пять лет. И обнаружил интересный факт, цитирую: "А теперь, внимание, вопрос! Вроде бы у Яндекса количество новостей не сильно больше, чем у других. И даже меньше, чем у Рамблера в последние месяцы. Почему же о Яндексе говорят и пишут чаще? Ответ: ... - см. на БЛОГике."
* * *
Никита Мелькин сообщает. 17 июня вышла в свет новая версия программы Semonitor 3.4. Улучшения коснулись различных модулей, в их числе Определение позиций, Внешние ссылки и Page Rank анализатор.
В модуле Внешние ссылки появилась возможность проверять не только PageRank ссылающихся страниц, но и тематический индекс цитирования (ТИЦ) Яндекс, что станет безусловно полезным нововведением для российских веб мастеров. Также в модуль добавлена поддержка двух новых поисковых систем (Alexa и GigaBlast) для еще более полного сбора информации о ссылающихся ресурсах.
Модуль PageRank анализатор предназначен для анализа уровня конкуренции по различным ключевым словам. Для списка сайтов показываются такие параметры как Google PageRank, Яндекс ТИЦ, число внешних ссылок и присутствие в каталогах DMOZ, Yahoo и Яндекс каталоге. В версии 3.4 добавлен новый параметр - Alexa Traffic Rank, который показывает уровень популярности заданного сайта относительно всех остальных сайтов в Интернет.
СОБЫТИЯ НЕДЕЛИ
Search.i.ua – новый поисковик в Украине
Украинские пользователи Сети получили приятную новость – в Украине разработана новая поисковая система search.i.ua. Интернет-агентство Mi[6] сообщило о завершении работы над новым поисковым сервисом. По словам разработчиков, поисковик оснащен новой системой морфологии, а также улучшенным механизмом учета ссылочного индекса, что позволяет выводить результаты, наиболее точно соответствующие запросам пользователей. Search.i.ua выполняет поиск только по украинским сайтам. В будущем разработчики обещают появление
опции "Искать в UA-IX", а в дальнейшем, как только появится каталог сайтов, будет реализован поиск по регионам. Читать подробнее >>
* * *
MySpace привяжется к Google, Yahoo или MSN?
MySpace сегодня является одним из самых популярных сайтов молодежи в США, но его поисковый движок далеко отстает от лидирующих поисковых порталов. В связи с этим Питер Чернин (Peter Chernin), директор по операциям News Corp, на конференции Deutsche Bank Media & Telecom заявил о возможности подключения портала к одной из лидирующих поисковых систем. Такой шаг объясняется желанием извлечь максимальную прибыль от портала. Читать
подробнее >>
* * *
Собственная система контекстной рекламы на eBay
Крупнейший интернет-аукцион eBay объявил о запуске системы контекстной рекламы AdContext. В системе будут принимать участие сайты-аффилиаты, которые получат от 35 до 60% выручки, полученной eBay от продаж, в зависимости от объемов. Система контекстной рекламы будет предназначена только лишь для товаров, предлагаемых на сайте. Система AdContext берет деньги за продажи, а не за щелчки по баннеру. Причем один и тот же рекламный слоган может вести каждый раз на разные продукты, предлагаемые в этой категории.
Читать подробнее >>
* * *
Google сможет определить, что смотрят пользователи по телевизору
Google Research разработали прототип системы, которая через встроенный в компьютер микрофон сможет определить, что смотрят интернет-пользователи в определенный момент по телевизору и предоставляет контекстно-зависимый контент в Интернете. Такая разработка была представлена на конференции по интерактивному телевидению EuroITV-2006 и заняла первое место. Google Research предлагает на основе информации о телепрограмме, которую смотрит интернет-пользователь, реализовать различные интерактивные сервисы. Читать подробнее >>
* * *
Google избежала суда
Хозяин двух онлайновых магазинов обвинил Google в том, что она необоснованно удалила из поискового индекса ссылки на его сайты. Робертс добивается возмещения ущерба, утверждая, что действия Google крайне негативно отразились на его бизнесе и повлекли значительные финансовые убытки. Адвокаты Google пригрозили истцу встречным иском согласно норме SLAPP (призваная защищать от исков "сутяжников", которые часто мотивированы элементарным шантажом), и тому пришлось отступить. Читать подробнее >>
* * *
Япония готовит соперника для Google, Yahoo и MSN
В Японии сообщают, что при сотрудничестве специалистов тридцати крупнейших японских коммуникационных компаний и фирм-производителей электроники, представителей двадцати местных университетов и при финансировании правительства страны станет реальным создание новейшей поисковой системы, которая сможет составить конкуренцию лидирующим сегодня поисковикам. Японский поисковик (по задумке) позволит пользователям не только искать текстовую информацию, но и изображения на экранах телевизоров, а также система будет
отображать результаты поиска по голосовым запросам. Читать подробнее >>
ОТСЛЕЖИВАНИЕ КОММЕРЧЕСКОЙ ЭФФЕКТИВНОСТИ САЙТА - Сергей Бондарь
ОТСЛЕЖИВАНИЕ КОММЕРЧЕСКОЙ ЭФФЕКТИВНОСТИ САЙТА
В прошлых статьях ( см. ст. 1, 2, 3, 4 ) мы рассказывали о том, какие сегодня в ходу способы получения позиций и органического (бесплатного) трафика с поисковиков, какие из них действенны,
а какие - нет, и как можно самому убедиться в результативности той или иной стратегии.
Работает ли ваш сайт в полную силу
Сегодня мы хотим обратить внимание на не менее важную составляющую успешного интернет-маркетинга - качественную веб-аналитику. Под этими словами подразумевается взвешенная оценка результатов вашей деятельности. Неважно, как вы получили трафик - оптимизируя страницу за страницей, или выложив приличную сумму за платную рекламу в поисковиках по нужному вам запросу - если продажи остались низкими, вряд ли вы долго будете радоваться растущему числу посетителей. Скорее всего, вы что-то упустили из виду.
Это "что-то", а именно конверсия, и есть предмет изучения веб-аналитики.
Западные интернет-маркетологи давно посвящают львиную долю времени, усилий, и бюджета анализу трафика, поведения посетителей и конверсии. И, в конечном счете, это окупается - ведь повысив эффективность рекламы (а любая позиция в поисковых результатах - это, по сути, реклама), можно наблюдать увеличение дохода с этой рекламы, без увеличения ее объемов или затрат на нее. Более того, в определенных случаях анализ трафика позволяет даже снизить расходы, прекратив покупку плохо конвертирующихся ключевых
слов.
Итак, первый вопрос, который вы должны себе задать, приступая к анализу - "работает ли мой сайт в полную силу?". Под этим подразумевается: достигнут ли максимальный уровень конверсии того трафика, который вы получаете, и найден ли оптимальный баланс между всеми видами трафика. Таких видов можно выделить пять:
Поисковики. Пользователи поисковиков вводят определенные слова в поле поиска, желая найти некоторые продукты, сервисы или информацию, видят ваш сайт в результатах поиска, и щелкают на ссылке. Это - самый дешевый трафик. Насколько он целевой, зависит от того, как хорошо вы оптимизировали страницы по данному запросу. Выяснить это, кроме всего прочего, и призвана веб-аналитика.
Ключевые слова. Мы выделяем ключевые слова в отдельный вид источников трафика, хотя на первый взгляд может показаться, что они неотделимы от поисковиков. На самом деле, независимо от того, сколько трафика приносит тот или иной поисковик, какие-то ключевые слова будут конвертироваться лучше, а какие-то - хуже, и эта тенденция всегда будет неизменна от поисковика к поисковику. Кроме того, у каждого ключевого слова может быть своя история трафика и конверсии.
Ссылающиеся сайты. Вы можете приобрести ссылки с других сайтов за деньги, или обменяться ссылками, или сайт-партнер разместит одностороннюю ссылку на ваш ресурс. В любом случае, это не только окажет благотворное влияние на ваши позиции в результатах поиска, но и принесет определенное количество трафика непосредственно с этого сайта.
Прямой доступ. В любом случае, для некоторой доли посетителей невозможно будет определить источник. Скорее всего, они просто запомнили адрес вашего сайта, либо оставили его у себя в закладках, либо ваш сайт им посоветовал знакомый или сотрудник, либо они увидели его во сне.
Рекламные кампании. Сюда относят как покупку ключевых слов на поисковиках, так и баннерные и текстовые кампании на чужих сайтах. Как правило, рекламные кампании отслеживаются и анализируются иначе, нежели остальные источники трафика - ведь вы платите деньги за них, следовательно, для вас особенно важно, будут ли они приносить прибыль, и каким образом сделать так, чтобы тратить меньше, а получать больше.
В первую очередь, инструменты анализа трафика оказывают неоценимую помощь тем, что делят посетителей на эти категории, и вы можете увидеть, где наиболее "ценный" трафик - то есть, откуда приходят на сайт те люди, которые более всего готовы совершить покупку, подписаться на рассылку или совершить иное целевое действие. Следующим шагом уже может быть увеличение активности по приобретению трафика именно с этих источников.
Почему недостаточно иметь webalizer или простой hit-counter
Сразу оговоримся о "счетчиках трафика", или так называемых хит-каунтерах (hit counters). Под этим термином подразумевается простейший скрипт, который считает ваших посетителей и чаще всего показывает данные о посещаемости сайта на самом же сайте в виде картинки. Такие механизмы существуют исключительно для удовлетворения любопытства вебмастера и бесплатно прилагаются к любому хостингу (к вашему не прилагались? Наверное, вы невнимательно смотрели). Ничего общего с приложениями для анализа трафика и
вычисления возврата инвестиций они не имеют.
Лог-анализаторы - это программы более высокого класса. Они способны считывать стандартные записи - логи - которые сервер ведет о каждом посещении или запросе страницы, и на основе этих данных составлять статистические отчеты о посещаемости сайта. Наиболее распространенные программы подобного рода также включаются в комплекты многих хостинг-пакетов.
Отчеты, составленные такими программами, уже дают возможность отследить первые 4 вида источников трафика, а наиболее "продвинутые" лог-анализаторы (большинство из которых, как правило, платные) даже дают возможность отслеживать рекламные кампании.
К сожалению, статистика, собираемая такими программами, имеет более техническую направленность, нежели маркетинговую. Происходит это по нескольким причинам: во-первых, в логах фиксируются запросы не только страниц, но и любых объектов, связанных с этими страницами - картинок, скриптов, стилей, и других файлов. Точно также, в логах фиксируются посещения не только людьми, но и роботами различного рода, например, поисковыми (что само по себе не так плохо), или спайдерами/загрузчиками сайтов (что уже
похуже). Таким образом, систематизация и фильтрация этих данных требует многочисленных ухищрений со стороны разработчиков лог-анализаторов, на которые последние не всегда пускаются. Особенно известны проблемы лог-анализа сайтов, построенных на фреймах.
Во-вторых, лог-анализаторы сталкиваются с определенными трудностями, когда перед ними встает задача отслеживания транзакций, таких, как регистрации посетителей или онлайн-покупки. Обычно такие процессы реализованы при помощи динамических страниц, переменные внутри которых лог-анализаторы отследить, увы, не в силах. Этот факт практически нивелирует возможность использования лог-анализатора как серьезного приложения для анализа коммерческой статистики сайта, построенного с использованием динамического
интернет-магазина.
Что же остается? Мы оказываемся один на один с приложениями трекинга посетителей в режиме реального времени, которые были и остаются стандартом де-факто для коммерческих сайтов. Такие приложения используют вставляемый в веб-страницы код JavaScript, чтобы передать на сервер статистики данные о посетителе, который просматривает сайт именно в данный момент. Естественно, некоторая доля посетителей, использующих браузеры, в которых отключен или не поддерживается JavaScript, остается "за бортом" - но эта
доля настолько ничтожна, что ею можно пренебречь.
Решения в этой области можно найти как бесплатные (причем весьма высокого качества, например, Google Analytics), так и ориентированные на корпоративный сегмент рынка и стоящие, соответственно, несколько тысяч долларов (такие, как WebTrends и Omniture).
Рассмотрим основные аспекты веб-аналитики на основе решения от Web CEO - компании, уже знакомой читателям по предыдущим статьям.
Инструмент Web CEO, предназначенный для сбора маркетинговой статистики с сайта, называется HitLens. Отчеты, генерируемые этой программой, включают статистику по всем видам источников трафика, и предоставляют статистику о количестве уникальных посетителей, визитов, и просмотров отдельных страниц. Не забыты также отчеты о поведении и навигации посетителя на сайте, техническая статистика, отслеживание загрузок, покупок и других
транзакций, и вычисление эффективности рекламных кампаний.
Основные отчеты и данные, на которых следует сфокусировать внимание
Итак, вы загрузили и установили программу для веб-аналитики. В HitLens - более 100 отчетов, разбитых по 10 группам. На что смотреть в первую очередь?
- Общий отчет о трафике (Traffic Summary). Здесь - основной показатель вашего успеха на поисковиках. Вы видите цифры количества посетителей, визитов, и просмотров страниц, и имеете возможность проследить динамику изменения.
- Поисковые фразы (Search Keywords). Этот отчет имеет определяющее значение для оптимизации. Здесь перечислены слова, по которым ваш сайт находят в поисковиках (или вернее, по каким словам к вам приходят с поисковиков). Вы не только можете оценить, насколько удачно вам удалось получить трафик по тем терминам, по которым вы оптимизировали страницы, но и получить несколько подсказок насчет того, по каким словам можно было бы оптимизировать страницы в дальнейшем.
- Эффективность источников трафика (Efficiency of Referrers). Здесь напрямую оценивается, сколько прибыли вы получаете с каждого вида трафика. Комментарии излишни - эти данные попросту определяют дальнейшую стратегию веб-продвижения сайта в целом.
- Страницы, найденные по ключевым словам (Pages Found on Keywords). В этом отчете каждой странице вашего сайта сопоставлены ключевые слова, которые ввел посетитель в поисковике, прежде чем попасть на данную страницу. Этот отчет достаточен для оценки того, насколько хорошо помогла вам оптимизация продвинуть данную страницу именно по тому ключевому слову, на которое вы рассчитывали, и какие способы оптимизации работают для вашего сайта лучше, а какие - хуже.
- Активность по ключевому слову (Activity by Search Keyword). Этот отчет - сердце веб-аналитики. Он позволяет определить, как работают те или иные ключевые слова, и насколько они склонны конвертироваться в транзакции. Поскольку именно в определенные ключевые слова вкладываются деньги, время, и оптимизационные усилия, то в этом отчете и нужно искать возможность эти самые время, усилия, и деньги сэкономить, переоптимизировав страницы сайта и рекламные кампании на те ключевые слова, которые работают
лучше, и "выключив" те, которые работают хуже.
- Пути навигации (Navigation Paths). Этот отчет показывает, с какой страницы на какую переходят по ссылкам ваши посетители. Следовательно, можно получить представление о том, как они пытаются найти интересующую их информацию, и как лучше ее структурировать. Кроме того, качественный сайт всегда сам направляет посетителя по определенному пути от страницы к странице, и как правило, путь этот заканчивается страницей покупки или целевого действия. Этот отчет даст вам понять, насколько эффективно
вы направляете посетителя по такой цепочке.
- Популярные страницы (Popular Pages). Этот отчет интересен, если вы хотите отследить, какие страницы вашего сайта наиболее часто посещаются.
- Отсрочка конверсии (Visits Before First Transaction). Заставляет ли информация на вашем сайте "достать кредитку" сразу, или посетителю требуется несколько заходов на сайт, прежде чем он решится совершить целевое действие? Используйте этот отчет для улучшения продающих характеристик вашего сайта, таких как индекс доверия (credibility), удобство использования (usability) и т.д.
- Рекламные кампании (Advertising Campaigns). Эта группа отчетов помогает вычислить возврат средств, которые вы вложили в рекламные кампании, а также определить, какие из компонентов той или иной кампании (купленные слова, баннеры, текстовые объявления) работают лучше, а какие - себя не оправдали.
Выяснение причин: почему сайт продает не так хорошо, как мог бы
Самая первая причина - вы нацелились не на те ключевые слова. Вы оптимизировали сайт, получили позиции в поисковиках и долгожданный трафик, а продажи остались низкими? Скорее всего, подбор ключевых слов был неверным: посетители искали в поисковике одно, а на вашем сайте находят другое.
Понять, насколько содержимое ваших страниц соответствует ожиданиям посетителя, можно при помощи отчетов "Активность по ключевому слову", "Эффективность источников трафика", и "Пути навигации". Первый даст вам понять, что некоторые ключевые слова, хоть и генерируют множество визитов с поисковиков, совсем "бессильны" в плане транзакций. Во втором вы увидите, насколько хорошо конвертируется трафик из разных источников, и в третьем - как же все-таки посетители пытаются найти нужную им информацию и что
они, в конечном итоге, хотят увидеть на вашем сайте.
Далее вы можете выяснить, что сайт вполне соответствует ожиданиям посетителя, но найти нужные ссылки и перейти к действиям удается не многим. Причинами этого могут быть запутанная навигация, слишком длинная цепочка перехода от информационной страницы (найденной через поисковик) до страницы с целевым действием (например, страницей заказа), и, в конце концов, банальные битые ссылки. Всё это может существенно сказаться на конверсии из посетителей в покупатели. Эти проблемы чаще всего идентифицируются
из отчета "Пути навигации".
Доверие, которое сайт внушает посетителю, тоже имеет немалое значение. Непрофессиональная графика и текст, пренебрежение использованием безопасного протокола передачи данных при покупке, ошибки скриптов - все это уничтожает доверие потенциального покупателя к сайту. Косвенно, приложение веб-аналитики может намекнуть на подобную проблему - чаще всего это приводит к тому, что посетители не задерживаются на сайте долго, и это можно проверить, заглянув в отчет "Время, проведенное на сайте" (Site Stickiness).
Также, немаловажным будет ваше умение заставить посетителя закрепиться на вашем сайте и вернуться к нему вновь через некоторое время, даже если покупка не была сделана во время первого визита. Способов закрепить посетителя за сайтом множество - интересная новостная рассылка, блог, регистрация на сайте и т.д. Ну, а определить, как много посетителей сочли нужным заглянуть на сайт повторно, помогут отчеты "Частые посетители" (Frequent Visitors), "Мотивированные посетители" (Motivated Visits), и "Повторные
визиты посетителей" (New Visitors' Second Visits).
Как использовать полученную статистику в дальнейшей оптимизации
"Социализм - это контроль и учет" - говаривал выдающийся IT-менеджер высшего звена В.И. Ленин, вероятно подразумевая: "Интернет-маркетинг - это профессиональная веб-аналитика и глубокий анализ стратегии продвижения сайта". Выше было обосновано, почему обыкновенных хит-каунтеров недостаточно для того, чтобы ваш сайт приносил хороший доход. Первое, и вполне понятное желание любого основателя Интернет-ресурса - это достижение высоких показателей трафика. Но, когда эти показатели наконец-то достигнуты,
оказывается, успешнее от этого коммерческий проект не стал. Тысячи посетителей могут ежедневно бывать на страницах сайта и… уходить навсегда. Конечно, можно терзать себя догадками, почему так происходит, а можно, использовав профессиональные решения для веб-аналитики, найти "корень зла" и исправить ситуацию.
Не станем повторять преимущества выше описанных отчетов. Безусловно, и знание дифференцированных показателей трафика, и составление по данным множества отчетов обобщающего портрета посетителя, и владение информацией о маршрутизации посетителей на сайте и их активности - всё это бесценные сведения для успешного продвижения Интернет-ресурса.
Но главное преимущество веб-аналитики даже не в этом. Задумайтесь - какое самое главное затруднение испытывает оптимизатор в начале работы над конкретным проектом? Правильно! Ключевой момент успешной оптимизации - угадать с ключевым словом. Проблема состоит в том, что для определения популярности кейворда используются различные сервисы - платные или бесплатные - предоставляющие некие цифры, которые должны свидетельствовать о популярности кейворда в поисковых машинах. Увы, очень часто эти данные не
могут достоверно отобразить реальную популярность ключевого слова. Ещё более проблематичным является определение степени конвертируемости кейворда в реальный доход.
Приведем пример. По запросу "архитектурное проектирование" оптимизируются многие архитектурные мастерские. Количество поиска этой ключевой фразы весьма велико, и попадая на первые места, сайты архитектурных компаний очень быстро набирают солидные показатели поискового трафика. Владельцы сайтов довольны и не скупятся на гонорары молодцам-оптимизаторам, предчувствуя скорейшие сверхприбыли и потоки заказчиков. Но заказчики, почему-то, не спешат… Детальный анализ данной ситуации показал, что публика,
ищущая "архитектурное проектирование" в поисковиках - совсем не обязательно собирается заказывать эту услугу. Большинство посетителей по этому запросу - это студенты архитектурных специальностей, просто интересующиеся тематикой и т.д.
В то же время, поисковый трафик по более узким запросам, например "проектирование гостиниц", отличается куда более скромными показателями, однако процент целевых посетителей по данному запросу гораздо выше.
Чтобы узнать о всех подобных премудростях успеха коммерческих Интернет-проектов у владельца сайта есть два способа: 1. путем проб и ошибок (которые всегда будут обходится большими тратами времени и ещё большими тратами денег) найти верный путь продвижения, или 2. посредством профессиональных программных решений для веб-аналитики, уже на первых этапах работы сайта вычислить единственно правильное направление и тематическую нишу, и - испытать чувство глубокого удовлетворения от проделанной работы и
успешности проекта. Чего вам всенепременно и желаем.
Сергей Бондарь,
WebCEO.com - профессиональный программный комплекс для продвижения в Google, MSN, Yahoo
Подписчики расширенного варианта (РВ) нашей рассылки имеют право приобрести любую версию программного обеспечения WebCEO со скидкой 50%. Вы сэкономите от $95 до $240.
Для получения скидки необходимо отправить заявку на адрес subscribe@ashmanov.com c темой письма WebCEO-50%
Большинству B2B сайтов и некоторым B2C сайтам свойственна сложность указания цен, потому что их услуги предоставляются во многих вариантах, или вообще уникальны для каждого потребителя. Много пишется об удобстве таких сайтов, однако такая сложность часто не отмечается. Якоб Нильсен в статье “Приводите цены для типовых заказов” предлагает решение данной проблемы. В связи с тем, что на таких сайтах, как правило, долгий цикл продажи, и потенциальные покупатели захотят понять порядок цен еще в самом начале
процесса выбора поставщика, автор предлагает указывать типовые варианты заказов и цены на них. Читать статью >>
* * *
Romir Monitoring: вид изнутри
Мы часто публикуем результаты исследований компании Ромир-Мониторинг, а сейчас хотели бы познакомить вас с ней поближе. Компания образовалась в 2002 году путем слияния Monitoring.ru Group (образовавшаяся из Национального института социально-психологических исследований (НИСПИ), Агентства исследований социума и телевещания (АИСТ), Агентства региональных политических исследований (АРПИ) и monitoring.ru, занимавшийся изучением Интернета) и исследовательским центром РОМИР, созданным на рубеже 80-х — 90-х годов
прошлого века сотрудниками Института социологии. Компания специализируется на маркетинговых (основное направление деятельности – около 95%), рекламных, медиа- и социологических исследования. Читать подробнее >>
* * *
SEO-дайджест за май 2006 года
На Master-X вышел очередной, майский, выпуск SEO-дайджеста за нынешний год, который, как в прочем и всегда, обилует большим количеством интересных новостей, обсуждений, статей из мира SEO за прошедший месяц. На этот раз в дайджесте достаточно много уделяется внимания новым разработкам-сервисам от Google: Google Co-op, Google Trends, описывая основные характеристики служб, их назначение и т.д. Также обсуждаются ссылки, проблемы их форматирования, обмена ими, оценивание качества входящих ссылок и многое другое.
Читать дайджест >>
* * *
Macromedia Flash оптимизируется под поисковики
В популярности анимационных возможностей технологии Flash уже, наверное никто не сомневается. Помимо этого, все более популярными становятся интерактивные возможности Flash. Интеграция Flash с сервером даёт большие возможности для разработчиков сайтов. Это могут быть самые разные формы взаимодействия с посетителями сайта: доски объявлений; форумы; гостевые книги; разнообразные формы сбора данных; интерактивные игры. Учитывая большие возможности Flash, и растущую популярность этой технологии, компания Macromedia
выпустила специальный модуль “Macromedia Flash Search Engine SDK” для индексации содержания Flash файлов поисковыми системами, позволяющий конвертировать текст и ссылки из Flash в HTML файл для индексации поисковыми системами. Читать подробнее >>
* * *
Поисковые системы для программистов
Сегодня специалисты считают, что будущее поиска находиться в узкоспециализированных сферах. Известно, что найти программный код при помощи обычных поисковых систем достаточно проблематично. В связи с этим появляются новые разработки, целью которых и является достижение такой цели, создание поисковой системы специально для программистов. Мы уже писали о начале закрытого бета-тестирования первого поисковика для программистов Krugle, который уже, к слову, является открытым для всех пользователей в Сети (оставаясь
в бете). Автор статьи “Поиск для программистов” рассматривает основные особенности, функциональные возможности и характеристики Krugle, а также другого подобного поисковика Koders. Читать статью >>
* * *
Новинка от Google: Google Browser Sync
Не успела компания Google ознакомить своих пользователей со своими последними разработками, как предлагает на всеобщее обозрение новый сервис. Browser Sync, созданный с целью сохранить данные пользователя на сервере, представляет собой расширение к интернет-браузеру, причём на этот раз поддерживается лишь Mozilla Firefox. Для работы с Browser Sync не требуется никаких дополнительных аккаунтов FTP, и достаточно лишь учётной записи Google. На сервере сохраняется информация не только об избранных сайтах, но
и об истории посещений, копируются файлы cookies и даже список открытых вкладок. Читать подробнее >>
Лежал в ванне, читал Форбс. Статью про хранение продуктов "Год не срок": "Из $460 млрд, которые покупатели ежегодно оставляют в супермаркетах США, производителям достается лишь небольшая часть. Доля фермера составляет, к примеру, 5% розничной цены батона хлеба или 7% банки консервированных томатов. Остальное приходиться на долю переработки, упаковки, доставки, рекламы и розничной торговли. По мере того как упаковка будет становиться все более замысловатой, переработка и сбыт
отъедят еще больший кусок пирога".
Подумалось (по аналогии), а не станут ли производители контента (здесь традиционные издания) "новыми фермерами"? И не стали ли уже?..
Mauser: Скорее всего так и будет. Я хорошо вижу это на примере развития Гугль бейз. Я лично отказался предоставить им фид своих данных по недвижимости. Именно потому что мне не улыбается стать "фермером". За моими данными пусть приходят ко мне. Я проживу без их поискового трафа.
Если у гугля хорошо идет игра с хтмл контентом когда поставщиков трафика много и он может безнаказанно отрубить любого и у него останется запас, то в моей узкой нише картинка обратная. Собственнно такая ситуация в любой структурированной базе данных. Это не текст, это большая работа именно по структурированию. И тут уже идет не медведь-Гугль против москитов (прибил пяток, да и хрен с ними), а игра на равных. И я отчетливо вижу что моей логике следуют многие контент-провайдеры.
Открытое письмо господам из Яндекса
Уважаемая компания ООО «Яндекс». Я владелец сайта www.aktivsb.ru и генеральный директор компании ООО «Актив-СБ». В последних числах мая – начале июня Вы выкинули сайт нашей Компании из Вашей базы. Причина, предполагаю, чей-то стук. До вылета из Яндекса средняя посещаемость была на уровне 800-1000 чел. в день...
Обсуждение доклада Федора Вирина на
Киевской конференции. Озвучены
интересные цифры "бюджета времени"
пользователя - т.е. времени, которое
среднестатистический пользователь
тратит на интернет, и его распределение
между различными интернет-сервисами
(почта, блоги, поиск и т.п.) Времени
оказалось не так чтобы слишком много.
Предлагается обсудить выводы, которые
из этого надлежит сделать оптимизаторам
в частности.
Предлагается обсудить необходимые и достаточные условия для того,
чтобы форум (сообщество) стало генератором новых идей, а не просто
приятным общением. В этой же теме собираются проблемы, требующие
совместного мозгового штурма сообщества.
Чтобы получить успешный сайт, вовсе не обязательно тратить сотни тысяч долларов на его создание и продвижение. Ведь именитость студии-разработчика сама по себе не гарантирует его качества. Экономить на сайте можно и даже нужно. Важно только понимать, где и сколько.
В прошлом году Google начинал программу по размещению
рекламы в печатной прессе. Принципы размещения рекламы основывались на
тех же поисковых алгоритмах, по которым размещается реклама в Google
AdWords. Несмотря на прекрасный почин, и попытки спасти ситуацию в
марте через аукционы проект не добился каких-либо значительных
успехов. С другой стороны небольшой проект Keyhole, размещение рекламы
на Google Maps, неожиданно принес огромные дивиденды.
Обсуждения в форумах - "живые". Новые сообщения могут появляться уже после просмотра вами заинтересовавшей темы. Маленький совет: если Вы хотите получать информацию о новых сообщениях в интересующих темах, сделайте две вещи.
Авторизуйтесь при входе и на странице с интересующей вас темой кликните по ссылке "Следить за ответами в теме". Извещения о новых ответах станут приходить вам на адрес, указанный при регистрации.
Это заняло некоторое время - понять, в чем суть. Такие вещи всегда занимают определенное время. После месяцев наблюдений, исследований, дискуссий, оптимизаторы, наконец, стали лучше представлять себе последствия изменений в инфраструктуре Google под названием Bigdaddy.
Начиная с середины зимы и до этой недели, StepForth настоятельно рекомендовали своим клиентам вести себя консервативно по отношению к любым изменениям на их сайтах до тех пор, пока не пройдет достаточно времени, для того чтобы мы и другие эксперты в области оптимизации могли понаблюдать, проанализировать и сформулировать наши впечатления от этих изменений. Около десяти дней назад, в конце этого интеллектуального туннеля появился свет и оптимизаторские форумы сразу же подняли шумиху вокруг этой темы
пытаясь выяснить и предугадать, как действовать в условиях пост-Bigdaddy.
Это довольно длинная история, но ее можно изложить кратко, в сентябре 2005 Google начал очередное улучшение работы своего алгоритма, которое состояло из трех частей и стало известно как Jagger-апдейт. Вскоре после этого, Google начал улучшать и заменять свою базу и сервера - что получило название Bigdaddy-улучшение. Этот переход (для всех дата-центров, ходят слухи, что их существует несколько сотен) занял еще несколько месяцев.
Другими словами, самый популярный поисковик в мире был нестабилен, начиная с сентября. Единственная надежная информация, которую оптимизаторы могли предоставить своим любопытным клиентам, в этот период времени касалась контента, ссылок и структуры сайта (точнее информацию о том, что все изменения будут касаться этих трех вещей). Работа оптимизатора предполагает высокий уровень ответственности, поэтому никто из хороших оптимизаторов не хотел делать каких-то определенных заявлений, опасаясь указать
клиентам неверное направление или дать абсолютно неправильную рекомендацию.
На оптимизаторских форумах, в дискуссионных группах, начиная с середины мая и постепенно увеличиваясь к концу месяца, стали появляться идеи, теории (что является неотъемлемой частью базы знаний любого оптимизатора), в которых вырисовывалась более-менее определенная картина всего происходящего.
Направляемые периодическими утечками информации с блога Мэтта Каттса - царя контроля качества в Google, на различных форумах завязались дискуссии на эту тему: WebMasterWorld, SEW (1) (2) (3), Threadwatch, SERoundtable (1) (2) (3), и Cre8asite (1) (2). Такие из оптимизаторов как Аарон Уолл, Джарод Хант, и Марк Дауст, подбавляли масла в
огонь статьями, которые они публиковали на своих блогах.
К настоящему моменту, большинство хороших оптимизаторов, уже могут выработать стратегию по выводу из кризиса тех сайтов, которые пали жертвой Bigdaddy апдейта. С уверенностью можно сказать, что и Bigdaddy, и Jagger апдейты были направлены на снижение количества коммерческих (зачастую спам-сайтов) сайтов с низкокачественным контентом в результатах поиска.
Однако этот апдейт был направлен не только против тех, кто откровенно нарушал рекомендации Google, а также против партнерских сайтов, сайтов, которые размещали у себя на страницах результаты поиска других поисковиков, сайтов с дублирующимся контентом, и сайтов очевидно участвующих в сетях обмена ссылками. В некоторых случаях жертвой этого апдейта могут также стать сайты, которые построены специально для размещения рекламы на них, где пользователи имеют единственную возможность - кликнуть на рекламное
объявление.
После введения улучшений в работе алгоритма и инфраструктурных изменений, оптимизаторами были замечены изменения в следующих областях: оценка качества сайта/документа, фильтрация дублированного контента, анализ ссылок.
Первым в списке идет оценка качества сайта/документа. Знаете ли вы, что сейчас документов в сети больше, чем людей на земле? Многие, если не большинство, из документов профессионального уровня, но некоторые не соответствуют этому уровню. Google вовсе не стремится к совершенству, но все таки пытается определить какие из документов более полезны и одними из критериев тут выступает качество контента и дизайна.
Качественный дизайн означает, что веб-мастер обеспечивает доступ ко всем документам на сайте, которые он хочет, чтобы были проиндексированы Google. Хорошие сайты размещают информацию, подлежащую индексации настолько высоко в структуре сайта насколько это вообще возможно. Хотя Google может проиндексировать всю базу сайта, он, кажется, предпочитает посещать информацию, расположенную на верхушке иерархической лестницы сайта. Мы также заметили, что Google посещает сайт настолько часто насколько этот прописано
в Google Sitemaps для сайта.
Доступность сайта и удобство его использования (юзабилити), это те вещи, которые принимались во внимание во время улучшения алгоритма Jagger, при этом учитывается, сколько времени люди проводят на сайте и как они с ним работают, что сказывалось на уровне репутации сайта и, соответственно, на его позиции в результатах выдачи по тем или иным вопросам. Внутренние и внешние ссылки надо расставлять с особой тщательностью и осторожностью для того, чтобы сделать навигацию по сайту (и не только по нему, а
также обеспечить точки выхода) настолько простой для посетителей, насколько это возможно.
Еще одним фактором оценки качества дизайна, является передача информации Google о последней версии вашего сайта (той из них, которая является актуальной на сегодняшний момент). На большинство сайтов можно попасть, как набирая www в адресной строке, так и пропуская эту часть адреса (например, http://www.yoursite.com, http://yoursite.com, http://www.yoursite.com/index.shtml). Это является довольно забавной проблемой для Google. Так как ссылки ведущие на сайт могут отличаться по написанию, иногда Google
просто не понимает, какая из версий сайта последняя для того чтобы хранить ее в своем кэше. Google каждый из вариантов написания URL может воспринимать как несколько разных сайтов, вещь известная под названием - канонизация, о которой Мэтт Катс писал на своем блоге в начале января этого года.
"Предположим, вы желаете, чтобы вашим адресом по умолчанию был - http://www.example.com. Вы можете настроить ваш сервер таким образом, что если поступит запрос на http://example.com/, то он автоматически перенаправит его (с помощью 301 редиректа) на http://www.example.com/. Таким образом, вы помогаете понять Google, какую из версий вашего сайта вы хотите канонизировать. Использование 301 редиректа - особенно хорошо для часто обновляющихся сайтов (сайтов с динамическим контентом, блогов)."
Качественный контент заполучить немного более сложно, а уж распознать - намного сложнее. Слово контент описывает все, что включает в себя веб документ, начиная текстами и картинками и заканчивая флеш, аудио, видео файлами и ссылками.
Есть два основных правила касающихся контента. Он должен быть полезным посетителю сайта (насколько это возможно), и он должен быть оригинальным.
Создание легких в использовании сайтов, наполненных нужной пользователю информацией - это обязанность и ответственность веб-мастера, но есть несколько простых способов показать, что вы серьезно к этому относитесь.
Сконцентрируйтесь на вашей теме и не отклоняйтесь от нее. Многие из сайтов, которые на себе "почувствовали" Bigdaddy апгрейд, пытались покрыть несколько тем, не раскрывая не одну из них полностью. Если выбор стоит между сайтом с четко обозначенной темой и нечетко, то действия Google становятся очевидными.
Google старается отсеять дублирующий контент. Google старается определить какая из версия является оригиналом, для того чтобы выделить ее среди повторений. Это сильно ударило по тем сайтам, которые работали в одной вертикале; партнерские сайты, сайты агентов недвижимости, и даже те сайты, которые занимаются розничной продажей раскрученных брендов. Сотни и даже тысячи страниц некоторых из сайтов ориентированных на базы данных продуктов пропали из основного индекса Google.
В большинстве случаев с этим нельзя ничего поделать, кроме как написать уникальный контент для каждого из продуктов, который есть в базе данных таких сайтов. Многие из сайтов по недвижимости используют те же источники информации, что и их конкуренты информация предоставляемая MLS (информация предоставляемая зарегистрированным агентам по продаже недвижимости об объектах продажи). Это не означает, однако, что Google думает, что такой контент бесполезен, просто Google не видит смысла в том, чтобы показывать
тот контент, который уже есть (но на других сайтах).
Многие из подобных сайтов, которые предоставляют списки товаров, недвижимости и прочего, ранее наслаждаясь большой представленностью в Google благодаря обширной базе - теперь попали в так называемые "дополнительные результаты выдачи". Дополнительные результаты выдачи предстают вниманию пользователя только тогда, когда по данному запросу ничего не найдено в основных результатах выдачи. Такой (дополнительный) индекс часто называется "Google Sandbox".
Последнее значительное изменение Bigdaddy замеченное оптимизаторами касается, улучшенного анализа ссылок. Помимо качества сайта и оригинальности контента Bigdaddy также просеял и ссылки, так что причины изменений позиций сайта могут лежать именно в сетях обмена ссылками.
В попытке определить намерения веб-мастеров, Google повысил значимость ссылок, как входящих, так и исходящих. До этого апдейта веб-мастера старались получить максимально возможное количество ссылок. Это привело к возникновению ферм ссылок, обмену ссылками и появлению сетей обмена ссылками низкого качества.
Один из способов, которым Google пытается определить намерения веб-мастеров, когда они ставят ту или иную ссылку - это составление карт входящих и исходящих ссылок для каждого сайта...
(Полная версия статьи опубликована в "РВ" - расширенном выпуске нашей рассылки)
"...Последние два года четко проявили в Рунете тенденцию, давно известную на Западе - создание и продвижение сетей сайтов. Рассмотрим это явление подробнее.
Поисковые системы не гарантируют нахождение какого-то сайта в индексе, без предупреждения меняют алгоритмы ранжирования, у них случаются программные сбои, в результате которых сайт или часть сайта может внезапно исчезнуть из индекса. Т.н. "выпадения морды в Яндексе" известны всем, сбои Рамблера тоже не редкость. Но от позиций в поиске у многих сайтов очень сильно зависит количество заказов, а от провалов по вышеописанным причинам не гарантирован ни один сайт, даже раскрученный самыми "белоснежными"
методами.
В итоге владельцы сайтов оказываются вынужденными следовать простой поговорке и не складывать все яйца в одну корзину. Т.е. создавать индексировать и продвигать по одним и тем же запросам не один сайт, а два, три и больше..."
КАКЗАДАТЬ ВОПРОС ЭКСПЕРТАМ?
Cтатьи,исследования, экспертные ответы и оценки рассылки "Продвижение сайта с опытом экспертов" будут посвящены, прежде всего, тому, что больше интересует вас, наших подписчиков.