как скачать сайт?
А вообще, в поиск. Было.
Учти, что некоторые сайты не скачиваются ничем, только вручную.
http://www.httrack.com/
http://download.httrack.com/cserv.php3?File=httrack-noinst.zip 3355 KiB
Open source. Не требует установки.
* Versions available for Windows, Linux, Sun Solaris, and other Unix systems
(Other platforms may soon be included)
* Multilingual Windows and Linux/Unix interface (English, Français, Castellano, Deutsch, Nederlands, Polski, Português, Italiano, Kréyòl Matinik, Magyar, Brazilian, Simplified Chinese, Traditional Chinese, Danish, Estonian, Swedish, Turkish, Macedonian, Japanese, Slovak, Czech, Ukrainian, Norwegian, Slovenian, Romanian, Greek)
* Open source (GPL) and free software (source code given)
* Mirror one site, or more than one site together (with shared links)
* User-selectable recursion levels
* Quickly updates downloaded sites
and resumes interrupted downloads (due to connetion break, crash, etc.)
* Filter by file type, link location, structure depth, file size, site size, accepted or refused sites or filename (with advanced wild cards)..
* Timeout and minimum transfer rate manager to abandon slowest sites
* Wizard to specify which links must be loaded (accept/refuse: link, all domain, all directory)
* Multiple-connection mode (default: 8 connections) maximizes download speed
* HTTP compression (gzip..)
* Proxy support to maximize speed, with optional authentication
* Reget (resume) for partially transfered files (HTTP/1.1)
* File names with original structure kept or splitted mode (one html folder, and one image folder dos 8-3 filenames option and user-defined structure
* Automatic switch for "Moved" errors
* HTML parsing and tag analysis, including javascript code/embedded HTML code
* Basic java and Flash parsing
* Integrated DNS cache
* Native https and ipv6 support
* Optional log file with error-log and comments-log
* User-specified paths for mirror and log files
* Works as a command-line program, or through a shell for both private (capture) or professionnal (on-line web mirror) use
http://download.httrack.com/cserv.php3?File=httrack-noinst.zip 3355 KiB
Open source. Не требует установки.
* Versions available for Windows, Linux, Sun Solaris, and other Unix systems
(Other platforms may soon be included)
* Multilingual Windows and Linux/Unix interface (English, Français, Castellano, Deutsch, Nederlands, Polski, Português, Italiano, Kréyòl Matinik, Magyar, Brazilian, Simplified Chinese, Traditional Chinese, Danish, Estonian, Swedish, Turkish, Macedonian, Japanese, Slovak, Czech, Ukrainian, Norwegian, Slovenian, Romanian, Greek)
* Open source (GPL) and free software (source code given)
* Mirror one site, or more than one site together (with shared links)
* User-selectable recursion levels
* Quickly updates downloaded sites
and resumes interrupted downloads (due to connetion break, crash, etc.)
* Filter by file type, link location, structure depth, file size, site size, accepted or refused sites or filename (with advanced wild cards)..
* Timeout and minimum transfer rate manager to abandon slowest sites
* Wizard to specify which links must be loaded (accept/refuse: link, all domain, all directory)
* Multiple-connection mode (default: 8 connections) maximizes download speed
* HTTP compression (gzip..)
* Proxy support to maximize speed, with optional authentication
* Reget (resume) for partially transfered files (HTTP/1.1)
* File names with original structure kept or splitted mode (one html folder, and one image folder dos 8-3 filenames option and user-defined structure
* Automatic switch for "Moved" errors
* HTML parsing and tag analysis, including javascript code/embedded HTML code
* Basic java and Flash parsing
* Integrated DNS cache
* Native https and ipv6 support
* Optional log file with error-log and comments-log
* User-specified paths for mirror and log files
* Works as a command-line program, or through a shell for both private (capture) or professionnal (on-line web mirror) use
Teleport Pro
Что это за сайты такие, что Offline Explorer не может их скачать?
http://www.vedibuki.ru/gre/sltn/outsltn.php?ns=550
Все очень просто. Страницы сайта генерятся по ссылкам на лету, причем в виде гифок. Одновременно создается только одна гифка с произвольным именем (5значное число). Все остальные в этот момент трутся.
Единственный нормальный способ:
1) загрузить нужную страницу;
2) скачать гифку;
3) сохранить ее под другим названием (типа, 00012, 00013, 00014, ... вместо 23432,63423,23522,..);
4) только тогда перейти к следующей странице.
Ты знаешь хоть одну стандартную качалку, которую можно заставить так сделать? Легче свою написать.
Все очень просто. Страницы сайта генерятся по ссылкам на лету, причем в виде гифок. Одновременно создается только одна гифка с произвольным именем (5значное число). Все остальные в этот момент трутся.
Единственный нормальный способ:
1) загрузить нужную страницу;
2) скачать гифку;
3) сохранить ее под другим названием (типа, 00012, 00013, 00014, ... вместо 23432,63423,23522,..);
4) только тогда перейти к следующей странице.
Ты знаешь хоть одну стандартную качалку, которую можно заставить так сделать? Легче свою написать.
это может wget + bash. но это уже не стандартный, согласен.
Оставить комментарий
int4557362
какой прогой это делается?