[HELP] Посоветуйте программу для скачивания однотипных файлов
bash + wget
Teleport Pro
Напиши сам на питоне. Если файлов много, то на bash + wget будем медленно — будет открываться новое TCP-соединение на каждый файл.
FlashGet/NetTransport
wget давно под винду есть
picturepump
чему это противоречит?
Normally, Wget asks the server to keep the connection open so that, when you download more than one document from the same server, they get transferred over the same TCP connection.
Просто зачем он нужен для этой задачи?
download master - я там видел опцию добавления нескольких ссылок по несложным формулам. Формулы класса от и до там тоже есть.
> Normally, Wget asks the server to keep the connection open so that, when you download more than one document
> from the same server, they get transferred over the same TCP connection.
И чем это может помочь, если на каждый файл запускать wget заново?
вернее, если он будет так делать, то писать скрипт на питоне ему не стоит советовать. =)
ftp-бла-бла IMG 1 .jpg и последняя А1&B1&C1&D1
протягиваем столбец с 1
копируем последний столбец в текстовый файл и этот текстовый файл забрасваем в любой закачивальщик, который поддерживает листы закачек (например, dmaster)
Немножко так сказать через жопу
curl в этом случае.
Что-нить в этом духе должно помочь
Сразу замечу, некоторые особенно умные серваки очень быстро банят за такое по ip на некоторое время
Я за Что-нить в этом духе должно помочь
curl -O http://www.server.com/img[0000-9999].jpg
Сразу замечу, некоторые особенно умные серваки очень быстро банят за такое по ip на некоторое время
Reget Deluxe, создать нумерованный список
Оставить комментарий
Permidal
Нужна прога для скачивания с сайта однотипных файлов.На некоторой странице лежит куча файлов - фоток - типа IMG1234.JPG.
Вместо 1234 - цифры от 0001 до 9999 (условно). Качать вручную по 1 файлу - долго, очень долго.
Какой прогой можно этот процесс автоматизировать?
А именно: задать адрес сайта, задать шаблон файла и диапазон цифирек.