Здравствуйте, Tatyana.
> 1. Анализ посещений поисковых роботов. Какие страницы каждый из роботов
> посещает (почему не индексирует другие страницы, что нужно,
> соответственно, изменить, чтобы индексировал и т.д.)
И как Вы узнаете, что нужно изменить, чтобы индексировал?
> 2. Важная информация - анализ ссылающихся страниц.
> 2.1 Статистика заходов с поисковых систем (а так же каталогов/рейтингов).
> Достаточно важная информация - статистика разная для разных сайтов, для
> разной целевой аудитории.
> 2.2 Статистика с других сайтов, которые разместили у себя ссылку на вас -
> тоже понятно.
Ну узнали Вы это, и что дальше?
В каталогах всё равно надо регистрироваться не зависимо от того,
приходят с них или нет (для ИЦ). А статистика заходов с других страниц
что может дать кроме удовлетворения любопытства?
> 3. Слова и фразы, по которым находился сайт в поисковиках - это понятно,
> необходимо отслеживать, насколько находится сайт по нужным ключевым
> словам, насколько грамотно сайт оптимизирован под эти ключевые слова и
> т.д.
По-моему, если рука набита, то нужные ключевые слова будут первые в
списке заходов с поисковиков. Это только новичок может так: сделал
сайт, а к нему начали приходить больше посторонние посетители, чем
целевые.
Другое дело, когда понимаешь, какого рода посторонний посетитель
лезет. И вот что тогда с ним делать? Пытаться приобщить его к сути или
наоборот отсеивать?
> 4.
Согласен. Важно.
По поводу разрешения и браузеров - вряд ли статистика одного сайта
будет слишком отличаться от статистики всего интернета (рунета).
Периодически заглядываю на спайлог: http://gs.spylog.ru/ и мне этого
хватает.