автоматическое сохранение сайтов

s11076

нужна прога или решение, может кто знает?
идея такая: прога по расписанию (регулярно) сохраняет указанные страницы с контентом ----> архивирует страницы -----> пересылает на указанную почту
если архив больше N МБ, то делит архив
хочется один раз настроить и потом только получать почту. Применения - новости, форум (если такое вообще возможно) :confused:
объяснил муторно, но вроде идею передал
изначально проблема в том, чтобы доставлять контент на комп, у которого связь с внешним миром через входящую почту (инета как такового нет)!

s11076

как-бы можно скрипт написать на перле, например, и запускать его в планировщике, но хочется более интересное решение

iSom

Забавно... Я бы даже наверное в долю вошел бы для создания такой прожки

Realist

Напиши скрипт на bash
по расписанию — cron
скачивает — wget
архивирует — gzip
на куски — split
пересылает — mail

elenangel

добавь туда еще условие "получает почту со ссылкой на страницу, которую необходимо обработать" и получишь http over pop/smtp

s11076

ок, спасибо. буду делать так
Оставить комментарий
Имя или ник:
Комментарий: