Вопрос № 65452: Здравствуйте, уважаемые знатоки!
Извините, если вопрос не в тему.
Я зашел на какой-либо сайт. Есть FAQ по интерисующему меня вопросу(к примеру). В нем оглавление. Чтобы скачать все, мне приходится открывать каждую страницу и сохранять ее. Мож...
Вопрос № 65.452
Здравствуйте, уважаемые знатоки!
Извините, если вопрос не в тему.
Я зашел на какой-либо сайт. Есть FAQ по интерисующему меня вопросу(к примеру). В нем оглавление. Чтобы скачать все, мне приходится открывать каждую страницу и сохранять ее. Можно ли скачать все сразу, и как это сделать.
Надеюсь, я правильно сформулировал вопрос.
Спасибо.
Отвечает: Maxim V. Tchirkine
Здравствуйте, Цельм Сергей!
Вам нужна программа "Offline Explorer" или подобная ей...
Удачи!
--------- Кто с чем к нам зачем, тот от того и - того. /А. Невский/
Ответ отправил: Maxim V. Tchirkine (статус: Профессионал) Россия, Сахалинская обл. Тел.: 89146463220 Организация: Антикризисный центр Адрес: о. Сахалин, г. Оха, ул. Советская, 21 ICQ: 209036345 ---- Ответ отправлен: 04.12.2006, 08:31
Отвечает: NiGHT
Здравствуйте, Цельм Сергей!
Ну если говорить более точно, то вот как лучше:
Сначала надо проверить несколько ссылок. Возможны следующие варианты.
1. Есть оглавления ведущие на одну страницу (или 2-3). Они оформленны в виде закладок. т.е.
1 ссылка xxxxxx.html#yyy
2 ссылка xxxxxx.html#rrrr
...
тогда достаточно открыть страницу xxxxxx.html и сохранить (сделать аналогично для пары других)
2. Если каждая ссылка ведет на свою страницу (...мерзость...), то надо прибегать к помощи автоматики.
2.1. Если по ссылками нет картинок. То я рекомендую брать RegetDelux. Если он установлен с интеграцией (поумолчанию), то можно щелкнуть правой кнопкой мыши и выбрать Download All... и задать папку куда. Этот метод очень быстрый! Кроме того если есть явная закономерность в ссылках и названиях то можно написать мелкую прогу для генерации ссылок и скормить ее Reget`у. Так можно целый сайт скачать. Но с катринками тут напряги.
2.2. Если по ссылкам есть картинки. A) То тут как ни крути надо качалку использовать. (см выше). Мне вот TeleportPro нравится. Там есть опция вложенности. Ставьте 1-2(зависит от программы). И он перекачает все с картинками. НО ЭТОТ МЕТОД ТОРМОЗНОЙ+БОЛЬШОЙ ОБЪЕМ ТРАФИКА (т.к. куча банеров и рекламы перекачивается). Создается сложная многофайловая структура на диске.
B) Если честно, то мне этот метод мало нравится. На объемах в 30 ссылок проще действовать вручную. Берете открываете N окон, ждете пока загрузятся. Потом все сохраняете. Закрываете еще N окон.
А вот если оглавление разбито по страницам... то тут лучше про вариант 2.2.a сразу забыть. ибо тогда надо увеличивать уровень вложенности. А это значит, почти, качать весь сайт! Надо строить систему правил...
хорошо что для FAQ свойственен метод 1.
Ответ отправил: NiGHT (статус: Студент)
Ответ отправлен: 04.12.2006, 09:46
Для скачивания различных файлов с сайтов используются специальные программы - оффлайн-браузеры. На http://soft.softodrom.ru/scr/rasdel.php?ras=2&subras=2 представлены некоторые из таких программ
В таких случаях я пользуюсь прогой TeleportPro. Вводится URL и идет загрузка страниц на ваш локальный диск. Есть функция загрузки страниц без картинок. В общем при начальной загрузке можно выставить расширения файлов которые следует загрузить, ну и имеются дополнительные функции. Думаю понравится.
Успехов!
--------- Делай добро сам, и всегда помни что сделали для тебя!
Ответ отправил: Web-Extrime (статус: 6-ой класс)
Ответ отправлен: 06.12.2006, 11:04