LINUX.ORG.RU

частичная закачка сайта через wget?

 


0

3

нужно скачать из сайта только все файлы (на которые есть внутренние ссылки соотв.) из каталога имя-сайта.com/uploads/posts/
т.е. получить результат, как будто бы если бы сайт выкачался полность, а после этого все файлы, что не лежат в этом каталоге - просто удалили
( в идеале еще хотелось бы при этом не загружать все файлы из имя-сайта.com/uploads/posts/любое_имя_каталога/thumbs/ )

как можно сие передать параметрами для закачки?

ну и, так понимаю, что сабж по-прежнему не может качать файлы только начиная с какой-то даты создания?..

Из справки по wget:

-I,  --include-directories=СПИСОК список разрешённых каталогов.
-X,  --exclude-directories=СПИСОК список исключаемых каталогов.

svobodka_fighter
()

вроде-бы wget -r делает именно то, что нужно.

ну и, так понимаю, что сабж по-прежнему не может качать файлы только начиная с какой-то даты создания?..

ну есть --mirror.

emulek
()
Ответ на: комментарий от svobodka_fighter

я запустил вот в таком виде

wget -r -k -l 8 -p -E -nc имя-сайта.com  -P '/media/hhh/temp' -i '/uploads/posts/'
и тем не менее пошла закачка всего сайта целиком, от корня.

ЧЯДНТ?

MinasFilm
() автор топика
Ответ на: комментарий от MinasFilm

и тем не менее пошла закачка всего сайта целиком, от корня.
ЧЯДНТ?

вот это

-l 8

Чисто телепатически я думаю что нужно

--no-parent aka -np
. Но лучше тебя поменять образ мышления и идти читать ман имени wget. Httrack даже боюсь предлагать, там несколько сложнее :(

antares0 ★★★★
()
Ответ на: комментарий от antares0
--no-parent aka -np

во-первых, глупости, во-вторых - все равно не работает. мне не нужно не переходить по ссылкам, мне условно говоря нужно чтобы сохранялись только изображения, «выдираемые» из страниц любого уровня вложенности (но без самих файлов страниц)

подозреваю уже таки, что вгету это тупо недоступно

MinasFilm
() автор топика
Последнее исправление: MinasFilm (всего исправлений: 1)
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.