LINUX.ORG.RU

опять wget


0

0

Ребята, не пинайте за, возможно, глупый вопрос.

Стоит такая задача. Скачать все файлы http://blablabla/blabla/*.mp3

Нужно, чтобы wget скачал их все рекурсивно, докачиавал при множественных обрывах связи, после перезагрузки компа, вёл лог.

Чтение мана пока не помогло, я новичёк.

Заранее спасибо!

anonymous

1. в чистом виде это не возможно
2. если сервер показывает содержимое http://blablabla/blabla/ как каталог, то wget -r -l1 --no-parent -A.mp3 http://blablabla/blabla/
3. на mp3real.ru архив нахаляву, и нинадо парить себе мозги.

generatorglukoff ★★
()
Ответ на: комментарий от generatorglukoff

Если в браузере набрать http://blablabla/blabla/ то сайт говорит, что такой страницы нету. Однако, файлы http://blablabla/blabla/file.mp3 качаются на ура, но опять таки браузером (для нужно щёлкнуть по ссылке на другой странице сайта). Проблема в том, что там этих файлов сотни и щёлкать я буду до второго пришествия (а если учесть, что не было ещё и первого, то это очень долго :))

Неужели нет решения этой проблемы? Может есть какая другая продвинутая качалка, которая это умеет?

anonymous
()
Ответ на: комментарий от anonymous

> Может есть какая другая продвинутая качалка, которая это умеет?

man curl

grad
()
Ответ на: комментарий от anonymous

Если есть страница сайта, на которой указаны ссылки, то сохрани эту страницу в файл, а потом скорми это файл wget через опцию '-i'.

mky ★★★★★
()

> Чтение мана пока не помогло, я новичёк.

Наглая ложь.

birdie ★★★★★
()
Ответ на: комментарий от anonymous

>Я так уже пробовал, говорит что не найден index.html и вываливается с ошибкой 404.

Давай ссылку на ту чудо-страницу - интереса ради попробую.

Bebop ★★
()
Ответ на: комментарий от anonymous

Я может щас жоска спалюсь, но уже чертовски позно и у меня каша в голове... В общем, похоже напрямую никак... НО, я бы сделал следующим образом: у них там все по выпускам (или как оно зовется) - ссылки вида http://radio.super.lv/node/571 а внутри есть ссылка на мп3. Вот и предлагаю тягать их именно так...

В итоге имеем конструкцию от которой мне сделалось грустно

curl http://radio.super.lv/node/571 | wget -q -c -r -nH --no-parent -A.mp3 --force-html --domains=http://radio.super.lv/ --cut-dirs 11 -l1 -i -

все это еще заворачиваем в цикл подставляющий в curl все возможные номера выпусков.

Если есть желание смотреть на километровые портянки стоит убрать -q в wget. Но оно таки качает.

ЗЫ Я спать пошел...

Bebop ★★
()
Ответ на: комментарий от Bebop

Думаю понятно, что в приведенном примере команды номер выпуска 571?

Bebop ★★
()
Ответ на: комментарий от Bebop

Мдя, вот я наколбасил... при таких раскладах можно проще: сначала curl адрес_выпуска, потом грепаем на предмет нужных ссылок с mp3 (регекспы нужны) и скармливаем wget-у и в цикл все это.

А то как я написал будет сильно дергать сервера на том конце.

Bebop ★★
()
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.