корректное сохранение страниц интернета
Teleport Pro
телепорт - маза - но как-то тяжело
меня еще интересует сходный вопрос: как выкачать по урлу хтмл-текст, который по хттп передается, его и только его в точности (желательно команд-лайн утилита)?
задаешь адрес сайта, глубину, и вперед...
хочется по легкости сравнимое с File->Save as
ну ладно, может я и правда придираюсь
но мне каждый раз влом его запускать, поэтому юзаю File->Save html - меньше проблем
ну, проблему сохранения всего сайта это не решит...
а если мне конкретная страница нужна.....инет то не халявный
как быть?
может там можно url конкретной страницы задать и только ее скачать без всяких ссылок и бла-бла?
Просто задаешь глубину 1 и наслаждаешься.
пасибо
А что браузер не помогает или отстал от жизни?
Часто достаточно сказать, что надо работать оффлайн, и не загрузятся только банеры.
Но бывают всякие "умные" странички, которые будучи сохраненными локально, начинают работать некорректно.
Обычно бывает достаточно вырезать из них все лишнее (хоть notepad-ом, хоть dreamviewer-ом и проблема исчезает.
Вот если надо сохранить больше одной страницы, да еще и чтобы ссылки между ними работали, вот тогда что-то типа телепорта - маза...
как выкачать по урлу хтмл-текст, который по хттп передается, его и только его в точности (желательно команд-лайн утилита)?
Если не нужны картинки у нтмля, либо это текстовый файл - передаешь его урл в качалку и она его тебе скачивает в точности. Есть качалки, которыми можно управлять из коммандной строки.

а не подкажешь парочку консольных качалок, которые не нужно ставить (желательно вообще один файл)
GUI я как-нибудь под них напишу


с другой стороны в точности хтмл он не сохраняет, да притом еще, кажись, пытается скачать станицу по второму разу (я про ie а не взять загруженный код и картинки из буфера
а вин реализация есть?
но wget консольный, да и он не только одну страницу может скачать, но и весь сайт
и отзывались о нем хорошо
http://unxutils.sourceforge.net/
wget.exe
wget.exe
я находил под вин
в ближайшее время проверю на рабочесть

2: про локалку-то я и не вспомнил

Оставить комментарий
alevnev
важный вопрос!как можно сохранять страницу, чтоб она откраывалась нормально-может какая прога есть, или в другой формат ее как нить перевести...
пример-сохраняем страницу...
потом открываем(при выключенном инете) сохраненную-она открывается долго-пытается приконнектится, и открывается не полностью
подскажите плиз