[прога] сколько будет стоить примерно..
@weekly ~/downloadimages.sh
~/downloadimages.sh:
#!/bin/bash
wget -p -r -nc --load-cookies <path-to-file> -A "full" <path-to-page>
Возможно, с ключами ошибся. Сколько заплатишь?
ты прямо прогу написал, или что?
*** и линукс пока не изучил
мне поступало предложение 1000р, так что не больше
да
Это если у тебя юникс. Если не юникс, то нужно будет, наверное, еще wget скачать.
Ну и плюс поотлаживать, конечно, чуть-чуть.
.. я только не понял, в примере в моем 1ом посте 3 ссылки с именем full
-p скачать не только страницу, но и все на ней, не обязательно, думаю
-r качать рекурсивно (то, что надо, будет качать ссылки)
-nc не качать, если файл уже есть
--load-cookies авторизация из браузера
-A шаблон файлов, которые качать. может быть -A "shit*full.jpg", например, нужно посмотреть на конкретные ссылки.
А тебе для себя или для кого-то еще?
ну хотя бы пива проставить стоит =)
просто если не будет проги, мне придется качать с 4-5 страниц по ~300 ссылок с каждой вручную (это за период месяц примерно)
могу пиво холодное "козел" принести сейчас.. если покажешь что скрипт как-то работает
2 литра кока-колы было бы просто офигительно
-p скачать не только страницу, но и все на ней, не обязательно, думаюТы можешь взять с него 1000 рублей не за "прогу", а за чтение манов вслух.
-r качать рекурсивно (то, что надо, будет качать ссылки)
-nc не качать, если файл уже есть
--load-cookies авторизация из браузера
-A шаблон файлов, которые качать. может быть -A "shit*full.jpg", например, нужно посмотреть на конкретные ссылки.
Меня похвалил Глеб! Ура!
Вот этот ключ
:режектит файлы по шаблону ПОСЛЕ их скачивания, а не до.
-A шаблон файлов, которые качать. может быть -A "shit*full.jpg", например, нужно посмотреть на конкретные ссылки.
P.S. Проверял на GNU Wget 1.9.1 под Win32.
Use the source, Luke!
Ты, должно быть, что-то напутал.
P.S. Охотно верю, что под Linux-ом оно нормально работает, но самому проверять уже лень
у меня под виндой (не смотрел какая версия wget) все нормально работает
По поводу -A. Возможно, ты говоришь вот о чем:
Note that these two options do not affect the downloading of HTML files; Wget must load all the HTMLs to know where to go at all--recursive retrieval would make no sense otherwise.С тебя еще 1100 рублей за чтение мануала. Чуть дороже, так как мне еще Глебу процент платить
А насчёт чтения манов за деньги - так это известная фишка, только её обычно предлагают ВМЕСТО чтения, а не после
Глеб, тебя обвели вокруг пальца, а теперь еще глумятся!
А на сколько уже кинули чуваков, которые wget писали!
К тому же, теперь я их (его) раскусил, когда у него вновь возникнет проблема с ключами, я все припомню.
а вам лень вслух почитать для товарища!
Я тоже пишу бесплатно. А читаю за деньги.
Вот что означает "чукча не читатель"!
Оставить комментарий
SVS111
задача такая: есть сайт, на котором выложено куча фоток (страница со ссылками)вот такой вид
2005/06/07 12:00 with grid: (low) (medium) (full) colour: (low) (medium) (full) no grid: (low) (medium) (full)
2005/06/07 06:00 with grid: (low) (medium) (full) colour: (low) (medium) (full) no grid: (low) (medium) (full)
2005/06/07 00:00 with grid: (low) (medium) (full) colour: (low) (medium) (full) no grid: (low) (medium) (full) и т.д
low, medium, full в скобках - как раз ссылки
нужна прога, которая бы по заданному расписанию заходила на сайт и скачивала все фотки с разрешением, скажем, full, за определенный период (там данные выкладываются за 2 месяца.. если скажем прога работает раз в неделю, то чтобы она как раз за последнюю неделю и скачивала)
иногда не все дни / часы доступны,
+ (это наверное мелочь?) - надо логиниться для входа на сайт
насколько такая прога сложная и сколько может стоить
если прямо конкретные предложения - пишите в приват