[прога] сколько будет стоить примерно..
crontab -e
@weekly ~/downloadimages.sh
~/downloadimages.sh:
#!/bin/bash
wget -p -r -nc --load-cookies <path-to-file> -A "full" <path-to-page>
Возможно, с ключами ошибся. Сколько заплатишь?
@weekly ~/downloadimages.sh
~/downloadimages.sh:
#!/bin/bash
wget -p -r -nc --load-cookies <path-to-file> -A "full" <path-to-page>
Возможно, с ключами ошибся. Сколько заплатишь?

я не програмист
ты прямо прогу написал, или что?
*** и линукс пока не изучил
мне поступало предложение 1000р, так что не больше
ты прямо прогу написал, или что?
*** и линукс пока не изучил
мне поступало предложение 1000р, так что не больше
да
Ну да.
Это если у тебя юникс. Если не юникс, то нужно будет, наверное, еще wget скачать.
Ну и плюс поотлаживать, конечно, чуть-чуть.
Это если у тебя юникс. Если не юникс, то нужно будет, наверное, еще wget скачать.
Ну и плюс поотлаживать, конечно, чуть-чуть.
ну линукс на тачке в лабе стоит
.. я только не понял, в примере в моем 1ом посте 3 ссылки с именем full
.. я только не понял, в примере в моем 1ом посте 3 ссылки с именем full
wget -p -r -nc --load-cookies <path-to-file> -A "full" <path-to-page>
-p скачать не только страницу, но и все на ней, не обязательно, думаю
-r качать рекурсивно (то, что надо, будет качать ссылки)
-nc не качать, если файл уже есть
--load-cookies авторизация из браузера
-A шаблон файлов, которые качать. может быть -A "shit*full.jpg", например, нужно посмотреть на конкретные ссылки.
-p скачать не только страницу, но и все на ней, не обязательно, думаю
-r качать рекурсивно (то, что надо, будет качать ссылки)
-nc не качать, если файл уже есть
--load-cookies авторизация из браузера
-A шаблон файлов, которые качать. может быть -A "shit*full.jpg", например, нужно посмотреть на конкретные ссылки.
Мы, к сожалению, знакомы чуть-чуть, так что я не смогу за 5 минут работы взять 1000 рублей 
А тебе для себя или для кого-то еще?

А тебе для себя или для кого-то еще?
ну хотя бы пива проставить стоит =)
в принципе для себя..
просто если не будет проги, мне придется качать с 4-5 страниц по ~300 ссылок с каждой вручную (это за период месяц примерно)
могу пиво холодное "козел" принести сейчас.. если покажешь что скрипт как-то работает
просто если не будет проги, мне придется качать с 4-5 страниц по ~300 ссылок с каждой вручную (это за период месяц примерно)
могу пиво холодное "козел" принести сейчас.. если покажешь что скрипт как-то работает
2 литра кока-колы было бы просто офигительно 

-p скачать не только страницу, но и все на ней, не обязательно, думаюТы можешь взять с него 1000 рублей не за "прогу", а за чтение манов вслух.
-r качать рекурсивно (то, что надо, будет качать ссылки)
-nc не качать, если файл уже есть
--load-cookies авторизация из браузера
-A шаблон файлов, которые качать. может быть -A "shit*full.jpg", например, нужно посмотреть на конкретные ссылки.
Меня похвалил Глеб! Ура!
Предложенный вариант всем хорош, если бы не одна проблема:
Вот этот ключ
P.S. Проверял на GNU Wget 1.9.1 под Win32.
Вот этот ключ
:режектит файлы по шаблону ПОСЛЕ их скачивания, а не до.
-A шаблон файлов, которые качать. может быть -A "shit*full.jpg", например, нужно посмотреть на конкретные ссылки.
P.S. Проверял на GNU Wget 1.9.1 под Win32.
Use the source, Luke!
Ты, должно быть, что-то напутал.
Я точно не напутал. Указанная версия под виндой именно так работает. Собственноручно вчера так скачивал несколько сот мегов разных whitepapers c одного сайта - спасибо тебе за инфу, кстати, - удобно.
P.S. Охотно верю, что под Linux-ом оно нормально работает, но самому проверять уже лень
P.S. Охотно верю, что под Linux-ом оно нормально работает, но самому проверять уже лень

у меня под виндой (не смотрел какая версия wget) все нормально работает
С тобой мы не знакомы, заноси 1000 рублей 
По поводу -A. Возможно, ты говоришь вот о чем:


По поводу -A. Возможно, ты говоришь вот о чем:
Note that these two options do not affect the downloading of HTML files; Wget must load all the HTMLs to know where to go at all--recursive retrieval would make no sense otherwise.С тебя еще 1100 рублей за чтение мануала. Чуть дороже, так как мне еще Глебу процент платить

Да, точно - оно.
А насчёт чтения манов за деньги - так это известная фишка, только её обычно предлагают ВМЕСТО чтения, а не после
А насчёт чтения манов за деньги - так это известная фишка, только её обычно предлагают ВМЕСТО чтения, а не после

> А насчёт чтения манов за деньги - так это известная фишка, только её обычно предлагают ВМЕСТО чтения, а не после
Глеб, тебя обвели вокруг пальца, а теперь еще глумятся!
Глеб, тебя обвели вокруг пальца, а теперь еще глумятся!
А на сколько уже кинули чуваков, которые wget писали!
К тому же, теперь я их (его) раскусил, когда у него вновь возникнет проблема с ключами, я все припомню.
Злые вы, люди бесплатно(!) маны писали
а вам лень вслух почитать для товарища!

а вам лень вслух почитать для товарища!

Я тоже пишу бесплатно. А читаю за деньги.
Вот что означает "чукча не читатель"! 

Оставить комментарий
SVS111
задача такая: есть сайт, на котором выложено куча фоток (страница со ссылками)вот такой вид
2005/06/07 12:00 with grid: (low) (medium) (full) colour: (low) (medium) (full) no grid: (low) (medium) (full)
2005/06/07 06:00 with grid: (low) (medium) (full) colour: (low) (medium) (full) no grid: (low) (medium) (full)
2005/06/07 00:00 with grid: (low) (medium) (full) colour: (low) (medium) (full) no grid: (low) (medium) (full) и т.д
low, medium, full в скобках - как раз ссылки
нужна прога, которая бы по заданному расписанию заходила на сайт и скачивала все фотки с разрешением, скажем, full, за определенный период (там данные выкладываются за 2 месяца.. если скажем прога работает раз в неделю, то чтобы она как раз за последнюю неделю и скачивала)
иногда не все дни / часы доступны,
+ (это наверное мелочь?) - надо логиниться для входа на сайт
насколько такая прога сложная и сколько может стоить
если прямо конкретные предложения - пишите в приват