Отправляет email-рассылки с помощью сервиса Sendsay
  Все выпуски  

Информационный обучающий журнал по онлайн-бизнесу - Выпуск #42


ИНФОРМАЦИОННЫЙ ВЕТЕР
бесплатный информационный обучающий журнал

ВЫПУСК #42 - 2008г.
автор рассылки: Алексей Фомичев

 

Редакторская колонка

Здравствуйте, дорогие подписчики!

Вот вы и дождались очередного, сорок второго, выпуска журнала, в котором я продолжу тему SEO-оптимизации вашего информационного ресурса.

Кто еще из вас не знает, что такое SEO, прошу вас ознакомиться с предыдущим выпуском рассылки http://subscribe.ru/catalog/economics.icommerce.infwind74

Конечно, о SEO-оптимизации можно говорить очень долго, но я затрону сегодня тему оптимизации в поисковых системах. Вы, как автор своего сайта, должны хотя бы иметь представления о том, как работают поисковые системы, и как заставить свой сайт оказаться на первых страницах данных систем.

Ну а прежде чем вы приступите к ознакомлению с данным информационным материалом, я хочу напомнить вам, что 31.01.2008 года заканчивается акция снижения цен в моем магазине Уникальных Цифровых Товаров «Информационный Ветер». После этого магазин закроется и возродится уже в новом обличии на другом хостинге и уже под другим именем.

Такой супер-акции как сейчас, уже, наверное, не будет никогда. Конечно, будет снижение цен в праздничные дни, то до такой степени как сейчас снижения точно не будет. Так что у вас еще есть время приобрести данные товары с огромной скидкой.

Ну а теперь приятного вам обучения и получения новых знаний

C уважением, Алексей Фомичев, руководитель проекта http://infwind.com и http://shop.infwind.com, редактор журнала «Информационный Ветер», автор книги «Сберегай и Приумножай. Пошаговая стратегия успеха», автор обучающего курса "Построй Информационный Бизнес Своими Руками"

 

Сенсация от Алексея Фомичева.

Как За Короткий Срок в Один Год Добиться Потресающих Результатов в Накоплении и Сбережении Своих Денежных Средств.
Пошаговая стратегия успеха позволяющая за один год сберечь
46000 рублей и заставить эти деньги приносить прибыль.

Узнать подробнее.

 

Сегодня в выпуске:

1. Оптимизация сайта под поисковые системы как фактор успешности бизнеса.
2. Как работают поисковые системы.
3. Составление файла robots.txt.

И так преступим к ознакомлению с выпуском…

 

Оптимизация Сайта Под Поисковые Системы Как Фактор Успешности Бизнеса

Автор - Татьяна Зуенок

Раскрутка сайта в Интернете (можно читать как продвижение продукции и имени компании) - это искусство использования алгоритмов работы поисковых систем для получения прибыли. Хорошо раскрученный ресурс сегодня стал неотъемлемой деталью имиджа преуспевающей фирмы.

Компании, которые начинают анализировать эффективность сайта как инструмента бизнеса, иногда не могут понять, почему качественный сайт, выполненный на профессиональном уровне, "не работает", т.е. не приносит прибыли. Вопрос этот приходится слышать дольно часто, поэтому хотелось бы вкратце изложить суть проблемы и пути ее решения.

Оптимизация сайта под поисковые системы - один из наиболее малозатратных и эффективных способов продвижения ресурса в Сети. Однако большинство компаний практически не занимаются ею, упуская при этом целевых посетителей, которые могли бы стать потенциальными клиентами или покупателями. На данный момент всем владельцам интернет-ресурсов, особенно коммерческого характера, необходимо принять оптимизацию сайта как обязательный шаг на пути к успеху.

Прошли времена, когда предприятия и фирмы считали хорошим тоном иметь свое представительство в Интернете. Сейчас мало иметь сайт, надо иметь эффективный сайт. Бизнес принял возможности Интернета как инструмент по получению дополнительной прибыли, не требующий больших вложений. Так почему же вы должны упускать эту возможность и ждать, когда ресурс конкурента выйдет на первые позиции?

Попав в Сеть, надо ни на минуту не забывать об одной прописной истине: "Конкурент находится на расстоянии двух щелчков мыши". Т.о. аксиому сегодняшнего дня можно сформулировать так: оптимизация нужна, и надо действовать, и как можно быстрее! Будьте уверены, что ваш конкурент уже читал/читает/завтра прочитает эту статью и внесет мероприятия по оптимизации своего сайта в ближайшие планы.

Итак, почему оптимизация под поисковые системы необходима:

1. Более 80% посетителей сайта приходят из поисковых систем.
2. 9 из 10 пришедших на сайт через поисковую систему - целевые посетители.
3. Затраты на комплексную оптимизацию сопоставимы с затратами на другие виды продвижения. Однако оптимизация значительно выигрывает в соотношении затраты/результат/длительность эффекта.

Когда человеку нужна информация, то лучшего помощника, чем строка поиска не найти. Пользователь вводит слова и словосочетания, отражающие суть вопроса, и в ответ получает огромное количество ссылок на интересующую тему.

Например, если пользователь задал в строке поиска запрос на поиск продавцов какой-либо продукции и получил список из 2000 ссылок, в котором адрес вашего ресурса находится где-то на тысячной позиции, то вероятность перехода на него очень низка. Большинство пользователей не заходят далее второй-третьей страницы результатов, поэтому размещение сайта на первых позициях или в первой десятке по ключевым запросам - обязательное условие успешности ресурса. Т.о. наиболее эффективный и наименее расточительный путь для онлайнового продвижения вашего сайта лежит через основные машины поиска.

Для проведения качественной оптимизации надо понимать принципы работы поисковых систем и каталогов, что позволит выработать стратегию оптимального использования их возможностей. Основное отличие поисковых систем от каталогов состоит в том, что при индексировании страниц они используют спайдеров. Спайдеры (от англ. слова «spider» - паук) - это сложные многофункциональные программы, которые периодически делают «вылазки» в Сеть. Они находят новые или измененные страницы и индексируют их, т.е. вносят в базу данных, которая в последствии используется для формирования результатов поиска на запрос пользователя. Спайдер находит на сайте ссылки, которыми связаны страницы, и, "проползая" по ним (т.е. переходя), фиксирует соответствующие страницы в базе данных. При обращении пользователя к поисковой системе с соответствующим запросом из базы данных выбираются адреса релевантных страниц.

В каталогах релевантность сайта оценивают живые люди (модераторы), которые распределяют ресурсы по тематическим разделам, а также пресекают использование запрещенных методов оптимизации. При запросе пользователя поисковая машина каталога рассчитывает релевантность, так же как и машина поисковой системы, но уже с учетом оценок, присвоенных сайту модератором.

Многие компании мечтают видеть свой сайт на первых позициях в наиболее популярных поисковиках. Пятерка ресурсов, за высокий рейтинг в которых стоит побороться, такова:

- Yandex - 46.0%
- Rambler - 25.7%
- Google - 16.5%
- Search.Mail.ru - 4.6%
- Aport - 3.5%

Процентные показатели отражают статистику переходов с соответствующих ресурсов. Из них первые два являются абсолютными лидерами.

Оптимальным вариантом является регистрация в поисковых системах и каталогах уже оптимизированного сайта. Однако большинство владельцев ресурсов начинают осознавать важность оптимизации только тогда, когда полностью разочаруются в эффективности сайта как инструмента для увеличения прибыли. Т.о., если вы просто зарегистрировали свой сайт, не оптимизировав его, то считайте, что вы выполнили просто формальность и об активном притоке целевой аудитории можно забыть.

На рейтинг, выставленный поисковой системой вашему сайту, влияет множество факторов. Большинство из них поддаются оценке и управлению со стороны разработчика или промоутера ресурса при проведении оптимизации, которая включает:

- исследование и подбор ключевых слов/фраз, характерных для тематики сайта;
- коррекцию содержания страниц;
- оптимизацию мета-тегов;
- улучшение структуры страниц и сайта в целом.

Далее следует ручная регистрация в основных поисковых системах и каталогах, а также платная регистрация на некоторых ресурсах.

На оценку сайта поисковой системой влияют десятки различных факторов, начиная с имени домена и заканчивая качеством каналов связи. Перечислим основные, влияющие на релевантность HTML-документов:

- Теги Title, Keywords, Description,
- Наличие ключевых слов в тегах h1, h2, b, strong, alt и т.д.
- Тег Robots, файл robots.txt (или его отсутствие).
- Качество и объем текста на страницах.
-Соответствие тематики страницы заявленным ключевым словам.
- Организация внутренних ссылок
- Количество и качество ссылающихся сайтов
- Наличие ключевых слов во внешних ссылках на сайт и др.

К очень важным факторам, однако, не поддающимся управлению со стороны оптимизатора, относят:

- Уровень конкуренции по выбранной тематике.
- Качество ресурсов по выбранной тематике.
- Востребованность выбранной тематики.

Довольно часто те, кто только что начал процесс оптимизации своих ресурсов, выполняют адаптацию под поисковые системы только самих страниц. Да, когда-то этого было вполне достаточно. Однако поисковые системы неустанно корректируют алгоритмы расчета релевантности, но не для того, чтобы усложнить труд оптимизаторов (им все равно придется разобраться с новыми правилами), а чтобы повысить качество поиска информации. В последнее время поисковики все большее внимание уделяют внешним факторам, например, качеству ссылок на страницу с авторитетных сайтов по данной тематике. Также учитывается объем информации, размещенной на сайте, структура страниц и сайта в целом. Увеличение конкурентоспособности проекта достигается в результате выделения и усиления главной темы и повышения ее релевантности.

Однако не стоит забывать, что оптимизация ресурса - это не самоцель, а средство достижения цели. Оптимизировав сайт, вы увеличите посещаемость сайта, что приведет к росту объема продаж, узнаваемости бренда компании, да и просто имиджевое воздействие сыграет в вашу пользу. Но не стоит забывать, что сайт должен развиваться гармонично, т.е. высоким позициям в результатах поиска должен соответствовать качественный дизайн, содержательный тематический контент, высокий уровень юзабилити сайта

Оптимизация - это процесс, эффективность которого нельзя оценить сразу. Первые результаты появляются примерно через месяц - это среднее время, которое требуется поисковой системе для полной индексации сайта и внесения его в базу данных.

Не забывайте, что оптимизация для поисковиков - это только крупинка в продвижении вашего сайта. В дополнение к ней надо использовать и другие методы продвижения: баннерную рекламу, контекстную рекламу, публикации на сайте тематических статей, организацию конкурсов, партнерских программ, предоставление полезных сервисов и др.

Татьяна Зуенок - при перепечатке статьи ссылка на http://promo.webcom.by
обязательна!

 

Как работают поисковые системы

Автор - Бретт Табке.

Поисковые системы состоят из пяти отдельных программных компонент:

1. spider (паук): браузероподобная программа, которая скачивает веб-страницы.

2. crawler : "путешествующий" паук, который автоматически идет по всем ссылкам, найденным на странице.

3. indexer (индексатор): "слепая" программа, которая анализирует веб-страницы, скаченные пауками.

4. the database (база данных): хранилище скаченных и обработанных страниц.

5. search engine results engine (система выдачи результатов): извлекает результаты поиска из базы данных.

Spider: Паук – это программа, которая скачивает веб-страницы. Он работает точно как ваш браузер, когды вы соединяетесь с веб-сайтом и загружаете страницу. Паук не имеет никаких визуальных компонент. То же действие (скачивание) вы можете наблюдать, когда просматриваете некоторую страницу и когда выбираете "просмотр HTML-кода" в своем браузере.

Crawler: Как и паук скачивает страницы, он может "раздеть" страницу и найти все ссылки. Это его задача – определять, куда дальше должен идти паук, основываясь на ссылках или исходя из заранее заданного списка адресов.

Indexer: Индексатор разбирает страницу на различные ее части и анализирует их. Элементы типа заголовков страниц, заголовков, ссылок, текста, структурных элементов, элементов BOLD, ITALIC и других стилевых частей страницы вычленяются и анализируются.

Database: База данных – это хранилище всех данных, которые поисковая система скачивает и анализирует. Это часто требует огромных ресурсов.

Search Engine Results Engine: О, самое сердце зверя. Именно система выдачи результатов решает, какие страницы удовлетворяют запросу пользователя. Это та часть поисковой системы, с который вы имеете дело, осуществляя поиск.

Когда пользователь вводит ключевое слово и делает поиск, поисковая система отбирает результаты на основании постоянно меняющихся критериев. Алгоритмом называется метод, по которому она принимает решение. Профессиональные оптимизаторы (SEO) иногда употребляют термин «algos» - это и есть то, о чем мы говорим.

Не смотря на то, что поисковые системы сильно изменились, большинство до сих пор отбирают результаты поиска на основании примерно следующих критериев:

- Title (заголовок): Присутствует ли ключевое слово в заголовке?

- Domain/URL (Домен/адрес): Присутствует ли ключевое слово в имени домена или в адресе страницы?

- Style (стиль): Жирный (STRONG или B), Курсив (EM или I), Заголовки HEAD: если место на странице, где ключевое слово использовано в жирных, курсивных или Hx (H1, H2,…) текстовых заголовках?

- Density (плотность): Как часто ключевое слово употреблено на странице? Количество ключевых слов относительно текста страницы называется плотностью ключевого слова.

- MetaInformation (мета данные): Хотя многие отрицают, некорые поисковые системы до сих пор читают мета ключевые слова (meta keywords) и мета описания (meta description).

- Outbound Links (ссылки наружу): На кого есть ссылки на странице и встречается ли ключевое слово в тесте ссылки?

- Inbound Links (внешние ссылки): Кто еще в Интернет имеет ссылку на данный сайт? Каков текст ссылки? Это называется «внестраничный» критерий, потому что автор страницы не всегда может им управлять.

- Insite Links (ссылки внутри страницы): На какие еще страницы данного сайта содержит ссылки эта страница?

Как видите, поисковой системе необходимо делать множество уточняющих запросов, используя скаченную страницу целиком.

Это сокращенное описания функционирования поисковой системы.

Бретт Табке.
Перевод - http://dimok.ru/

 

Составление файла robots.txt

Автор - Владимир Чернышов

Как известно, файл robots.txt используется для запрета индексации части или всего сайта всевозможными роботами. Правильное составление этого файла позволит избежать индексации документов, для индексации не предназначенных.
Формат файла robots.txt

Robots.txt — простой текстовый файл, который должен находиться в корневой директории сервера. Имя файла должно быть в нижнем регистре (ROBOTS.TXT, Robots.txt — неправильно).

В файле содержатся записи, отделяемые одной или несколькими пустыми строками (разделяемыми CR, CRNL, NL или r, rn, n). Каждая запись, в свою очередь, состоит из строк следующего вида:

имя_поля[необязательные пробелы]:[необязательные пробелы]значение[необязательные пробелы]

Поле является нечувствительным к регистру (case insensitive).

Каждая запись начинается одной или несколькими строками, где имя_поля=User-agent, после чего следует одна или несколько строк, где имя_поля=Disallow, имена полей, которые отличаются от двух указанных, игнорируются.

Знак «#» означает, что пробелы перед ним и все символы до конца строки являются комментарием. Строки, содержащие только комментарий, игнорируются и не могут использоваться для разделения записей.
User-agent

* Значением этого поля является имя робота, к которому применяются правила доступа;
* Если строк с User-agent несколько, то для всех роботов применяются одинаковые правила, которые содержаться в текущей записи;
* Если значение поля равно «*», то правила применяются к любому роботу, для которого нет отдельной записи. В файле robots.txt может быть только одна запись с User-agent: *.

Disallow

* В записи должно быть хотя бы одно поле Disallow;
* в поле Disallow указывается частичный или полный путь (URL), который не будет посещен;
* пустое значение (Disallow: ) интерпретируется как разрешение на посещение любой страницы;
* регулярные выражения и символы подстановки запрещены.

Практика

В процессе обработки сайта роботы имеют массив ссылок для посещения и набор правил исключения из файла robots.txt. Для каждой ссылки выделяется путь (http://www.site.com/path/to/file.html), после чего к этому пути применяются по очереди правила исключения. Пусть в файле есть строка Disallow: /path/to, она сравнивается с соответствующей подстрокой ссылки:
http://www.site.com/path/to/file1.html — посещение запрещено;
http://www.site.com/path/to/file2.html — посещение запрещено;
http://www.site.com/path/file3.html — посещение разрешено.

Чтобы запретить роботу посещение динамических страниц, можно использовать частичный путь. Например, чтобы запретить посещение страниц для печати вида http://www.site.com/index.php?action=print&id=1, но разрешить посещение страниц вида http://www.site.com/index.php?action=view&id=1, необходимо в robots.txt написать следующее:
Disallow: /index.php?action=print
Однако следует учитывать порядок параметров в ссылке. Так, следующие страницы робот посетит: http://www.site.com/index.php?id=1&action=print http://www.site.com/?action=print&id=1
Пример файла robots.txt

User-agent: *
Disallow: /news
# запретить всем роботам индексировать ссылки,
#которые начинаются с /news

User-agent: StackRambler
User-agent: Aport
Disallow: /eng
Disallow: /news
#Рамблеру и Апорту запретить индексацию ссылок,
#которые начинаются с /news и /eng

User-agent: Yandex
Disallow:
#Яндексу разрешить все.

Следует заметить, что файл robots.txt не является панацеей, так как его правила исключения используют только «культурные» роботы, а наряду с ними существует целый список роботов, сервисов и программ, которые не следуют правилам исключения, либо игнорируют существование файла robots.txt на сайте.

Кроме этого в файл исключений не стоит добавлять пути к файлам, о существовании которых не следует знать посторонним людям. Файл robots.txt доступен всем, поэтому присутствие там строк, вроде Disallow: /admin, только подзадорит некоторых посетителей к совершению вредоносных действий.
Примечания

1. В некоторых случаях используется динамическое формирование файла robots.txt, для сайтов с зеркалами.

2. Некоторые системы поддерживают дополнительные поля. Яндекс, например, использует поле Host для определения основного зеркала сайта.

3. Некоторые системы разрешают использование регулярных выражений. Так Гугл, который имеет поиск по изображениям, файлам PDF и другим, поддерживает в поле Disallow символы «*» (любая последовательность символов) и «$» (окончание строки ссылки). Это позволяет запретить индексирование определенного типа файлов:
User-agent: Googlebot
Disallow: *.pdf$
#Запрет индексации файлов PDF

По мнению автора это избыточное расширение, так как с тем же успехом можно вынести все документы PDF в отдельный каталог и запретить его индексирование:
User-agent: *
Disallow: /pdf/

Владимир Чернышов

 

РS: Дорогие друзья. Я как издатель и руководитель проекта "Информационный Ветер" продалжаю верстать свой офлайн каталога по теме информационный бизнес и здоровый образ жизни. Поэтому я приглашаю вас к сотрудничеству.

ПЕРВАЯ, А ТАКЖЕ ОБНАВЛЕННАЯ ВЕРСИЯ ДАННОГО КАТАЛОГА УЖЕ ГОТОВА И БЫЛА РАСПРОСТРАНЕНА СРЕДИ ПОДПИСЧИКОВ ЖУРНАЛА И МОЕГО ОБУЧАЮЩЕГО КУРСА.

И для вас я приготовил такой же подарок.

Скачивайте ОБНАВЛЕННУЮ версию каталого посвещенного теме информационный бизнес и здоровый образ жизни.

А предложение о сотруднечестве такое, если вы являетесь владельцем сайта на такую тематику (а тематика достаточно широка, в один информационный бизнес могут входить по несколько категорий начиная от построение сайта и заканчивая сетевым маркетингом), то я размещу в своем каталоге ссылку на ваш сайт.

Для этого вам необходимо прислать мне:

Название сайта: Пример - "Информационный Ветер"
Описание сайта: Пример: - Информационный ветер - все то что вы не знали об информационном бизнесе но хотели бы узнать.
Автор сайта: Пример - Алексей Фомичев
Ссылка на ваш сайт: Пример - http://infwind.com или www.infwind.com

В дальнейшем данный каталог будет распространяться только среди целевой аудиторией, так что вы можете привлечь, таким образом, на ваш сайт достаточно большое количество посетителей.

Набор заявок для Версии 3 присылайте мне на электронную почту: bis-nesworld@mail.ru в течение следующего срока 01.01.08 - 01.03.08г., но это не значит что работа будет закончина, если количество заявок будет огромное то я как издатель выпущю обнавленную версию данного каталога.

С уважением, Алексей Фомичев
руководитель проекта http://infwind.com и http://shop.infwind.com, редактор журнала «Информационный Ветер», автор книги «Сберегай и Приумножай. Пошаговая стратегия успеха», автор обучающего курса "Построй Информационный Бизнес Своими Руками

 

Материал данного выпуска вы можете использовать для обучения, а также как подарочный вариант в своих рассылках с соблюдением авторских прав и без изменении электронного формата статей

 

Сopyright © 2008 Алексей Фомичев,
ИНФОРМАЦИОННЫЙ ВЕТЕР


В избранное