LINUX.ORG.RU

Страсти cURL'овы


0

1

При обращение к директории site/1/ сервер показывает её содержание (поддиректории и файлы с различным расширением). Стоит задача, забрать себе все содержимое. При помощи Wget (wget -m --no-parent) задача решает просто, но его нет на сервере. Возможно ли при помощи cURL забрать все файлы (в том числе и рекурсивно) из имеющейся директории? Я так понимаю это невозможно.


site/1/ сервер показывает её содержание
Wget ... но его нет на сервере

Ты это чего, с сервера качаешь на него же его выдачу?

Wget ... но его нет на сервере

Сделай чтоб был.

Возможно ли при помощи cURL

При помощи скрипта можно (почти) всё.

anonymous
()

А теперь еще раз:

При обращение к директории site/1/

Каким способом? В браузере? Или по ssh зашли и посмотрели?

cURL забрать все файлы

А ман читали? Ключ -O, например.

alozovskoy ★★★★★
()
Ответ на: комментарий от anonymous

Ты это чего, с сервера качаешь на него же его выдачу?

Тоже не понял.

Еще как вариант, притащить с собой статический бинарь wget :)

qux
()
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.