LINUX.ORG.RU

wget, подскажите как...


0

0

...вытягивать им вот такие ссылки:

http://www.fenzin.org/downloadfb2.php?book=14053

которая находится на странице

http://www.fenzin.org/book/14053

ссылка должна быть взята из html. Вот это не работает:

wget -c -r -l 2 -np -D fenzin.org -A "*.php?book=*" http://fenzin.org/book/14053

помогите, плс.

★★★

честно признаться не понял в чём проблема

wget "http://www.fenzin.org/download.php?book=14053"
работает на ура

beastie ★★★★★
()
Ответ на: комментарий от beastie

В том, что я хочу вытянуть кучу книг, а не именно эту, поэтому надо ссылку брать со страницы, а не руками вводить.

eRazor ★★★
() автор топика
Ответ на: комментарий от eRazor

так оно ж номерное!? т.е. тебе только и надо, что раздобыть список номеров интересующих тебя книг и вперёд, скриптиком всех их качать.

да хоть

for i in `seq -w 1 10000`; do wget http://www.fenzin.org/downloadfb2.php?book=$i; done

beastie ★★★★★
()
Ответ на: комментарий от beastie

Я об этом думал, хотелось бы сохранить структуру каталогов, а не слить всё в одну большую кучу, поэтому, хочу вгетом.

eRazor ★★★
() автор топика
Ответ на: комментарий от alex4

Тогда уж лучше на либрусек :)

И скачать можно «пачкой».

Eddy_Em ☆☆☆☆☆
()
Ответ на: комментарий от AITap

Как этим рекурсивно все страницы сайта обойти? Писать полноценный парсер страниц - слишком много возни.

eRazor ★★★
() автор топика
Ответ на: комментарий от alex4

Может и проще, но хочу фензин вытянуть. -)

eRazor ★★★
() автор топика
Ответ на: комментарий от eRazor

не будет у тебя структуры каталогов, будет куча книг в одном каталоге с названием а-ля «downloadfb2.php?book=687»

wfrr ★★☆
()
Ответ на: комментарий от wfrr

врёш, белка! wget имена файлов правильно вытягивает.

beastie ★★★★★
()
Ответ на: комментарий от nnz

А что это? Менеджер пакетов dog не нашёл, гугль только собак выдаёт, дайте сцылу ознакомиться.

eRazor ★★★
() автор топика
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.