Отправляет email-рассылки с помощью сервиса Sendsay

Защита в Апач

Как можно сделать чтобы пользователи не смогли скачать весь сайт?
Может есть какие настройки в конфиге которые я пропустил.

-*Название листа "Linux: разрешение вопросов, перспективы и общение";
Написать в лист: mailto:comp.soft.linux.discuss-list@subscribe.ru
Адрес правил листа http://subscribe.ru/catalog/comp.soft.linux.discuss/rules
Номер письма: 17832; Возраст листа: 628; Участников: 1362
Адрес сайта рассылки: http://www.linuxrsp.ru
Адрес этого письма в архиве: http://subscribe.ru/archive/comp.soft.linux.discuss/msg/349862

Ответить   Алексей Tue, 12 Apr 2005 14:08:02 +0400 (#349862)

 

Ответы:

On Tue, 12 Apr 2005 14:08:02 +0400
Алексей <alexku***@m*****.ru> wrote:

Я вижу только один способ - генерить страницы динамически. А вместо
ссылок - формы с использованием метода POST.

Ответить   Крохин Анатолий Александрович Wed, 13 Apr 2005 08:42:36 +0400 (#350016)

 

В сообщении от 1113370956 секунд после начала Эпохи Unix Вы написали:

Это остановит только тех кто не хочет или не может написать скрипт для
скачивания всего сайта.

Лучший метод - анализировать журнал запросов (либо делать анализ в при
генерации динамических страниц), на предмет частоты запросов с одного и
того же IP-адреса и одного и того же user agent. При обнаружении
завышенной частоты запросов, временно запретить доступ с этого IP. Или
еще лучше сделать content filter, который в этой ситуации будет
отправлять клиенту вместо запрошенных им страниц сообщение о том что
зеракалировать этот сайт нельзя.

Но этот метод не остановит тех пользователей, которые в качалке
выставили паузу между скачиванием страниц.

А собственно зачем это нужно? Многие скачивают только потому что в
online им читать дорого. Вы хотите потерять часть посетителей?
Например, я больше не заходил на OpenNet.Ru после того как заметил
у них подобную систему.

Ответить   Konstantin Korikov Wed, 13 Apr 2005 16:42:04 +0300 (#350328)

 

Что значит скачать?
Могли определенные участки сайта просматривать в browser и не могли
стянуть качалками? тогда ищите описание robots.txt
Была статья на http://www.webmascon.com/topics/adv/8a.asp?print=true
называлась "Все, все, все о Robots.txt"

Если нужно, чтобы даже через browser к ним не было доступа, тогда
смотрите описание .htaccess. Который должен лежать в каталоге к которому
вы хотите запретить доступ.
http://forum.21.ru/faq/htaccess.html
http://linuxshop.ru/linuxbegin/print443.html

Ответить   Wed, 13 Apr 2005 10:44:09 +0400 (#350028)

 

В сообщении от Среда 13 Апрель 2005 17:44 Kolotov Alexandr написал(a):

Насколько я знаю, почти все качалки могут представляться браузерами (строка

User Agent - а как еще сервер может определить, кто качает, если не через
User Agent?)
На forum.ru-board.com есть целая ветка по этой теме:
http://forum.ru-board.com/topic.cgi?forum=24&topic=1369#1

Ответить   9A4172 Sat, 16 Apr 2005 21:44:04 +1100 (#352220)

 

В сообщении от 1113304082 секунд после начала Эпохи Unix Вы написали:

Гы! :)

Deny from all

Не зайти не скачать не смогут :)
А куда они смогут зайти, то они смогут и скачать. Думаю
понятно почему.

А если Вас интересует способы обнаружения рекурсивного скачивания
сайта, например с целью создания зеркала, то тут все просто:
пишем скрипт, который следит за логами, и при обнаружении таких
пользователей добавляет их IP в конфиг и перезагружает Apache.

Ответить   Konstantin Korikov Wed, 13 Apr 2005 12:30:28 +0300 (#350185)

 

Алексей пишет:

А зачем Вы этот сайт делаете?

Ответить   "Lyamaev I. V." Wed, 13 Apr 2005 10:26:39 +0800 (#351353)