Какая программа умеет скачивать сайт целиком?
webzip
webcopier
offline browser

А вообще лучшее решение - свой кэш (у меня стоит HandyCache) + а робот для брожения по инету (вот тут пока не копался - если кто подскажет хороший вариант - буду благодарен)

Тогда получается, что вся информация организована через избранное

а разве он не платный?

требования платности в исходном не было
HTTrack website copier - free (GPL, libre/free software)
wget -m somesite
Teleport pro

Оставить комментарий
smitty158
с сохранением всех гиперссылок? Чтобы можно было скачать сайт на винчестер и читать его автономно?