Отправляет email-рассылки с помощью сервиса Sendsay

WebDesign.Doc

  Все выпуски  

WebDesign.Doc - электронная библиотека веб-мастера: Мастерская. Выпуск 196


WEbDESiGN.doc   //   №196


Приветствую, дорогие друзья и коллеги!

На связи Путченков Дмитрий, ведущий рассылки.

читайте в этом выпуске:

  • Библиотека веб-мастера

    • Модули CMS Drupal 2009.10

  • Мастерская

    • Основные правила web-оптимизации. Часть первая

  • Авторские видеокурсы по веб-дизайну. Новинки

→ сайт рассылки: WebMasterZone - интернет-магазин для веб-дизайнеров. Здесь Вы найдете всё необходимое для создания и раскрутки сайтов - программы, скрипты, шаблоны сайтов, документацию. Действует прогрессивная система скидок - Вы экономите до 30% от суммы заказа! Посетить...

→ рекомендую: WebMaster.Soft - обзор новинок веб-дизайнерского софта

Библиотека веб-мастера

Модули CMS Drupal 2009.10

Программа содержит описание более 400 сторонних модулей для CMS Drupal. В том числе: OG Menu, Submenu Tree, Menu Trim, Menu Subtree Permissions, Menu Block Split, imagemenu, Lucid menu, Nice Menus, YUI Menu, Localization client.

Размер файла: 1343 Кб

Cкачать Модули CMS Drupal 2009.10

См. также:

Мастерская

Основные правила web-оптимизации. Часть первая

Автор: Боб Масса (Bob Massa)

Предисловие.

Существует несколько основных положений, которым должны следовать все поисковики. Они следуют определенным правилам потому, что ими управляют люди, а людьми управляют определенные законы природы. Несмотря на то, что существует много различий между роботами-пауками поисковиков по сравнению с обычной проверкой, осуществляемой людьми, в терминах масштабируемости, существует много схожего. Причем эта схожесть обусловлена тем, что вне зависимости от того, проводил ли индексацию и категоризацию человек или компьютерная программа (например, робот-паук), в конечном итоге, программа ведь тоже была составлена человеком и, с учетом уровня развития технологий в текущий период времени, она может делать только то, что ей было приказано. Робот-паук будет полностью имитировать деятельность человека, но он сделает это намного быстрее человека, при этом, не требуя наличия способностей, присущих высшим существам (т.е. человеку).

Мораль сей басни такова: если вы хотите добиться лучших рейтингов в результатах поиска, вне зависимости от того, проводит ли индексацию робот-паук или человек, вам просто надо «думать» как человек, а не как компьютерная программа. Логика, здравый смысл и вежливость по отношению к другому человеку всегда будут лучше, чем любой компьютерный язык. Если вы поймете, что вы работаете с реальными людьми, которые не так уж и сильно отличаются от вас самих, перестанете думать, что вы – всего лишь имя пользователя и пароль, пытающиеся обмануть компьютер, то уровень трафика (и, что намного важнее, уровень продаж) возрастет.

Я не хочу сказать, что у использующих роботов-пауков поисковиков нет слабостей, которые можно использовать в свою пользу (тоже относится и к индексируемым людьми директориями, но об этом позже). Конечно же, они у них есть. Стоит сказать, что, для того чтобы «увидеть» эти слабости и понять, как лучше их использовать в достижении своих целей, необходимо осознать то, насколько глупым является использование, например, скрытого текста, ре-директов и т.д. Как только вы поймете, что вы имеете дело с обычным человеком, хотя его присутствие и не настолько явно, то вам будет намного легче понять, чего хотел достичь этот человек, программируя тем или иным способом робота-паука. Понимание этого даст вам огромное преимущество по сравнению с вашими конкурентами и откроет двери в разумы тех людей, которые создавали индекс.

Случилось так, что я являюсь одним из самых успешных специалистов по продвижению сайтов на этой планете. Я не хочу называть себя «самым лучшим» или «гуру». Я просто говорю, что у меня много опыта в этой области, что вполне оправдывает мою репутацию. Я могу вам абсолютно ТОЧНО сказать, как достичь самых лучших результатов по любому поисковому термину. Готов поспорить, что среди читающих эту страницу пользователей есть те, кто может подтвердить мои слова, указав на свои странички, занимающие лучшие места в результатах поиска. Я смог это сделать, изучив и приняв основные правила web-оптимизации.

ак как мы собираемся обсуждать проблемы web-оптимизации, то я непременно буду помогать вам. Я считаю, что лучшее, что я могу сделать – это поделиться с вами этими основными правилами web-оптимизации. Будете ли вы им следовать или нет – это ваше дело. Мой любимый афоризм: «Я скажу вам, где находится золото, но добывать его вы должны сами».

Я уже неоднократно повторял, что я не несу ответственность, если вы следуете одному из моих советов и у вас ничего не получается. Я не имею ничего общего ни с одним поисковиком, кроме SearchKing. Я не получаю никакой информации, кроме предоставляемой по сделкам trusted feed или PPC (pay per click) сделкам. Поэтому, если вы делаете что-то, основываясь на моих словах, но результаты вас не устраивают, то не надо винить меня!

С другой стороны, как я уже говорил, я всегда рад принять благодарность в тех случаях, когда мои советы помогают. Но все же главной моей целью является предложение другой точки зрения на эту проблему, а не желание услышать благодарность от кого-либо. Основываясь на моем личном опыте, я всего лишь излагаю свою точку зрения в надежде вызвать размышления или споры на эту тему.

Так как любая беседа о техниках, используемых для получения лучших мест в результатах поиска, обычно превращается в жаркий спор или становится длительной дискуссией, каждый из участников которой пытается преподнести себя в лучшем свете, то данный доклад я постараюсь сделать как можно более «рациональным» как по содержанию, так и по объему. Я изложу те несколько правил, которые, как я считаю, являются полностью приемлемыми, и буду последовательным. Итак, первое правило.

 Основное правило web-оптимизации №1.

Любой поисковый сервер всегда пытается отразить самую релевантную (с точки зрения самого сервера) информацию об имеющихся в его базе данных сайтах в ответ на отдельный запрос на основании критериев классификации, установленных самим поисковым сервером. Это главная цель существования поисковой машины.

 Основное правило web-оптимизации №2.

При наличии времени и желания даже самый глупый человек всегда сможет одолеть самый умный компьютер.

Вы случайно не видели фильм «Парк Юрского периода»? В нем Джефф Голдблум говорит замечательные слова: «Жизнь найдет выход», которые неплохо описывают суть этого правила.

Все, что бы ни делал использующий роботов-пауков поисковый сервер, имеет свою модель. Поисковик делает все, имея определенную цель. Не важно, сколько переменных или насколько сложным кажется алгоритм, у него всегда есть модель, которую может понять любой человек, который может достаточно времени потратить на проверку всех переменных. Если вам слишком сложно это понять, значит, вы правы на 100%.
Роботы-пауки – это всего-навсего компьютерные программы, они мертвы. У них не бывает сомнений или предчувствий. У них отсутствует интуиция. Они не могут испугаться или устать. Они не сходят с ума от любви. Если их правильно запрограммировали, то они не сомневаются и не могут принести что-либо в жертву во имя великого добра. Они В ТОЧНОСТИ делают то, что им было приказано. Они являются лишь инструментами и не более того.

Как только вы это поймете, то у вас появится огромное преимущество перед машинами. Вы можете догадываться, представлять, делать вывод о том, что пытается сделать машина, а затем догадаться о ее возможных ответных действиях. Вы можете очень быстро проверять свои собственные теории и изменять их, а машине потребуется много времени и ресурсов, чтобы изменить свой алгоритм в попытке противодействовать действиям человека.

 Основное правило web-оптимизации №3.

Использующие роботов-пауков поисковики не пытаются разместить самые лучшие страницы на самых лучших позициях. Вместо этого, они пытаются разместить самые плохие страницы на самых последних позициях.

Несмотря на то, что это утверждение с первого взгляда может показаться всего лишь вариацией на тему семантики, на самом деле, это самое поразительное открытие, которое я сделал, когда начал пытаться добиваться лучших позиций в результатах поиска поисковых машин, использующих роботов-пауков.

В начале, как и многие, я думал, что лучшие позиции принадлежат лучшим сайтам. Я пытался создать «лучший» сайт необходимой тематики. После нескольких неудачных попыток, до меня, наконец, дошло, что определение «лучший» является абсолютно субъективным. Что «лучше» для меня, не значит «лучше» для вас. По сути, если дело касается сайтов, созданных мной, по сравнению с сайтами, созданными вами, то спор на тему, чьи сайты лучше, гарантирован. Тоже относится и к человеку, который пишет программу, говорящую роботу-пауку, что ему надо «думать».

Как только я осознал, что понимание слова «лучший» субъективно, для меня стало важнее понять, что «лучше» для поискового сервера, а не цепляться за свою точку зрения. Я понял, что если я хочу добиться хороших результатов, то не важно, что думаю я, важна только точка зрения поискового сервера. Именно благодаря пониманию этого я начал заниматься инженерным анализом (reverse engineering) сайтов своих конкурентов.

По мере того, как я пытался найти модель в определении лучших результатов поиска, мне стало понятно, что казалось, существовало несколько признаков сайта, по которым поисковые сервера определяли «хорош» ли он для этого запроса. Самыми главными (вспомним, что дело было в далеком 1996 году) были ключевые слова в мета-тэге keyword, ключевые слова в тэге title и мета-тэге description. Как только я понял, что и где нужно искать, обнаружились также плотность ключевых слов, структура ссылок, тэги Н или такие смутные характеристики, как мета-обновление (meta refresh).

Просмотрев буквально тысячи сайтов в течение нескольких месяцев, я понял одно: сайты, появлявшиеся первыми в результатах поиска, были самыми страшными сайтами на этой планете. Голый белый фон, разноцветный текст, непропорциональные тэги Н – все это делало сайты первой десятки похожими на записку с требованием выкупа, написанную третьеклассником-двоечником. Все это нельзя было назвать торговым представлением. Никто не мог дать никакого объяснения по поводу того, какие характеристики использовались, когда эти сайты были признаны «лучшими».

Как? Как мог поисковый сервер так ошибиться? Затем мне все стало ясно. Нельзя написать программу, которая будет ставить плюсики документам, основываясь на эмоциональной реакции. Нельзя приказать программе разместить симпатичный сайт в первой десятке результатов. Нельзя заставить программу выделять сайты с легкой навигацией, потому что робот-паук не знает, что такое «легко». Итак, все эти прикольные современные мульти-медийные элементы web-дизайна и функциональность могут игнорироваться или быть наказуемыми, а то, что можно измерить математически, лишено всякой эстетической ценности.

Робота-паука можно легко запрограммировать на сложение и вычитание. Можно запрограммировать вычитание баллов, если определенный набор букв повторяется в определенных частях документа. Другими словами, сайту могут быть выписаны штрафные санкции, если одно и тоже слово несколько раз появляется в тэгах title или keyword, или многократно повторяется в невидимом тексте. Роботу можно приказать искать такие элементы как текст того же цвета, что и фон, но после всех этих лет самым светлым программистским умам придется придумать что-нибудь более подходящее, чем простое игнорирование мета-тэга keyword – и это лишь один пример ограниченности роботов-пауков. С другой стороны, нельзя увеличивать рейтинг сайта только за внешний вид или легкость в использовании. Или за больший объем продаж. Другими словами, за все то, что было бы принято во внимание человеком, прежде чем признать какой-либо сайт самым лучшим.

Мое решение написать программу, которая находила бы все «хорошие» сайты и размещала их в лучших результатах поиска, намного сложнее (если вообще выполнимо), по сравнению с написанием программы, которая находила бы самые плохие сайты и размещала их в последних результатах поиска.

Возможно, вы сейчас спрашиваете себя, какое отношение это имеет к тому, чем вы занимаетесь или как вы видите свои отношения с использующими роботов-пауков поисковыми серверами. Я лишь могу рассказать вам, какое воздействие понимание этой концепции оказало на меня, и надеяться, что вы хотя бы ее обдумаете.

И сейчас вы можете найти сотни форумов по web-оптимизации (что бы это ни было), на которых говорится, что если кто-то хочет добиться лучших позиций в результатах поиска, то все, что они могут сделать – это создать «самый лучший» сайт и постоянно производить обновления. Но мой опыт говорит мне, что это не так. Вам надо понять, что в определении «лучшего сайта» должно быть, по крайней мере, два участника – вы и тот, кто оценивает сайт. Причем значение имеет тот, кто оценивает сайт. Если ваше определение «лучшего» сайта отличается от определения «лучшего» сайта с точки зрения поисковика, то вы просто проиграете! Более подходящий совет звучит так: создайте сайт, который будет лучшим с точки зрения нужного вам поискового сервера. Согласитесь это совсем разные вещи.

Понимание этого принципа позволило мне осознать, что если моей главной целью является создание лучшего сайта И хорошие позиции в результатах поиска, то мое понимание слова «лучший» не имеет к этому никакого отношения. Я также понял, что чаще всего сайт, занимающий первое место в результатах поиска, не способствует превращению посетителей в клиентов. Я смог увидеть то, что скрывается за рекламной шумихой поисковиков, - все их недостатки, и научился справляться с ними. Я осознал важность установления целей для каждого конкретного сайта и научился достигать эти цели.

Если бы поисковики на самом деле могли писать программы, с помощью которых первые позиции в результатах поиска занимали бы лучшие сайты, то я бы выбрал бы совсем другой подход, но по крайней мере в обозримом будущем этого не случится. Поисковым машинам все также приходится полагаться на простой анализ исходных кодов и соответствующим образом изменять политику релевантности. Сейчас, благодаря, ссылочной популярности, они могут положиться на людей в том, что те сообщат роботам-паукам, что им нравится. Это, конечно же, улучшило ситуацию, но в целом система будет работать также, даже когда подсчитывается количество ссылок. Программа может провести проверку того или иного показателя, но она не может выделить хороший сайт. Значит, она не может разместить его на лучших позициях в результатах поиска, все, что она может – это определить сайт, который, по мнению разработчиков программы, является плохим, и разместить его на самых последних позициях.

Продолжение следует...

*** Рекомендую ***

SEO от А до Я.
Энциклопедия раскрутки сайтов

Пакет учебников и лучших программ для профессиональной раскрутки и поисковой оптимизации сайта.

Одним из самых эффективных способов привлечения целевой аудитории на сайт является поисковая оптимизация. А она невозможна без занесения сайта в как можно большее количество поисковых систем, каталогов и рейтингов. Между тем сам процесс регистрации отнимает очень много времени. Именно поэтому люди, которые ценят свой труд, используют специальные программы для регистрации сайта путем регистрации в максимальном числе поисковых систем, каталогов и рейтингов. Мы отобрали самые лучшие, продвинутые программы для регистрации сайта в каталогах и поисковиках, которые помогут зарегистрировать и раскрутить Ваш сайт в тысячах катологах и поисковиках. Данные программы умеют очень многое - оптимизировать ваш сайт под поисковые системы и проверять результаты, анализировать плотность ключевых слов, указывать на ошибки в коде сайта, сравнивать Ваш сайт с сайтами конкурентов, проверять позиции сайта по разным поисковым запросам, генерировать правильные мета - теги, проверять сколько ссылок ссылается на сайт, и многое многое другое.

Сотни и тысячи посетителей в сутки на Вашем сайте это реально!

Узнать подробнее...

***

См. также:

Авторские видеокурсы по веб-дизайну. Новинки

ОТПРАВИТЬ ВОПРОС В РАССЫЛКУ:
HELP@WM-ZONE.INFO

Надеюсь, что вам понравился этот выпуск рассылки и вы узнали что-то новое и полезное для себя. Если у вас есть пожелания или предложения как сделать рассылку лучше, присылайте их на наш e-mail: admin@wm-zone.info

ведущий рассылки - Путченков Дмитрий
WebMasterZone -
http://wm-zone.info


В избранное