LINUX.ORG.RU

У wget есть опция --mirror, возможно она поможет, но не во всех случаях.

Infra_HDC ★★★★★
()
Последнее исправление: Infra_HDC (всего исправлений: 1)

как с определённой страницы старт сделать ограничив глубину?

naKovoNapalBaran
() автор топика

Многие популярные сайты сейчас - онлайн приложения с мегабайтами JS, поэтому в оффлайне они не работают.

Gary ★★★★★
()

пользовался из вики:

Скачать весь сайт целиком (глубина рекурсии — 10):

wget -r -l 10 -k -o log-file.txt -p http://example.org/

-r, --recursive включение рекурсивной загрузки

-l, --level=ЧИСЛО глубина рекурсии (inf и 0 - бесконечность)

-k, --convert-links делать ссылки локальными в загруженном HTML или CSS

-o, --output-file=ФАЙЛ записывать сообщения (логи) в ФАЙЛ

-p, --page-requisites загрузить все изображения и проч., необходимые для отображения HTML-страницы

-m, --mirror короткий параметр, эквивалентный -N -r -l inf --no-remove-listing.

DILIN ★★★★★
()
Ответ на: комментарий от DILIN

–level= глубина рекурсии

Это по ссылкам будет ходить?
Мне надо по всем направлениям,
с переходом по ссылкам относительно страницы, не сайта.

И wget не обрабатывает имена файлов с символом : у меня

naKovoNapalBaran
() автор топика
Последнее исправление: naKovoNapalBaran (всего исправлений: 2)
Ответ на: комментарий от naKovoNapalBaran

Это по ссылкам будет ходить?

man wget не пробовал?

debugger ★★★★★
()

Смотря какой. Когда-то давно реально работали рецепты с wget, во времена web 1.0

Но сейчас web 2.0, и сайты — это в большинстве не тексты с гиперрсылками и мультимедия вставками, а приложения.

Vsevolod-linuxoid ★★★★★
()
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.