Есть сайт:
http://site.com
он содержит ссылки к интересной мне документации,
посмотрев три ссылки и они выглядят так
http://site.com/downloads/docs/*.{pdf,dvi,ps}
Проблема в том что документ зачастую разбит на части,
для того чтобы скачать 10-20 частей одного документа надо просмотреть рекламу,
и всякую белиберду,
а директория downloads/docs не открыта на чтение,
хочется
а)пройтись по всему сайту,
б)ничего тяжелее html страниц не скачивая
в)вычленить ссылки ввида http://site.com/downloads/docs/*.{pdf,dvi,ps} и записать их в файл
"wget" as is такую возможность насколько я понял не дает,
т.е. он заодно и документы скачает и картинки и т.д.,
может curl с этим справиться или что-то еще подходит?
Помогите новичку в области internet ботов.
Ответ на:
комментарий
от workerman
Ответ на:
комментарий
от anonymous
Ответ на:
комментарий
от kpanic
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.
Похожие темы
- Форум wget | curl квест (2012)
- Форум wget -i `curl` (2010)
- Форум Баг в wget, curl (2018)
- Форум Вкладки в tilda не кликаются мышкой. (2012)
- Форум wget, lynx, curl. 403 Forbidden (2014)
- Форум Курсор мышки в иксах кликает на сантиметр левее (2001)
- Форум Сломался Yum, не работает wget, curl (2013)
- Форум Wget и curl ничего не кешируют? (2021)
- Форум ненавижу!!! (2005)
- Форум Ненавижу Latex, ненавижу ТехЛаве... (2010)