Всем доброго.
wget, curl, php скрипты, всевозможные ключи, при помощи которых можно очень выборочно качать содержимое разных web ресурсов - это все здорово. Но вот картинка, как пример, коих тонны на многих сайтах - страница имеет определенное содержимое. Картинки, ссылки, текст и прочие. Сторона сервера генерит определенный код для клиента и тот все это дело скачивает в html etc. Со структурой.
Качаем условную заглавную страницу какого-нибудь сайта со всей этой структурой, а затем клиент (wget, или какая другая программа) переходит по ссылке на другую страницу сайта, где !!! мы видим все то же самое содержимое (ну, к примеру, сайт устроен так, что разные менюшки, списки ссылок есть на каждой странице сайта и они ! одинаковые) за исключением лишь определенной полоски условной «новости». А wget, или какая другая программа будет заново качать вообще всю страницу! Если страниц десятки тысяч, то программа будет качать каждую страницу, которая ладно, что будет весить каждая по мегабайту из-за оформления, пусть и одинакового для всего сайта, но это займет еще и тонну времени.
На стороне сервера может быть все просто - php сгенерил код и всё, а качалка будет его каждый раз снова тащить - один и тот же код.
Просто на столько давно изучал эту всю тему, что даже не представляю себе, с чего начать, что бы решить вопрос монстроуозности подхода, так как гугл банально отдает результаты любые, но только не по решению вопроса, как скачать основное содержимое лишь один раз, если это php.
Решения, вообще, существуют, или тут без данных серверной стороны не через web не обойтись?




Ответ на:
комментарий
от pfg

Ответ на:
комментарий
от Zhbert

Ответ на:
комментарий
от pfg


Ответ на:
комментарий
от uwuwuu

Ответ на:
комментарий
от Zhbert

Ответ на:
комментарий
от uwuwuu

Ответ на:
комментарий
от pfg

Ответ на:
комментарий
от ESTAF

Ответ на:
комментарий
от ESTAF


Ответ на:
комментарий
от goingUp

Ответ на:
комментарий
от ESTAF

Ответ на:
комментарий
от goingUp

Ответ на:
комментарий
от goingUp



Ответ на:
комментарий
от pfg

Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.
Похожие темы
- Форум Скачивание сайта через сеанс. (2018)
- Форум Сайт для скачивания файлов (2005)
- Форум Программа для скачивания сайта (2007)
- Форум Локальная копия сайта. Скачивание целого сайта. (2008)
- Форум Содержимое Ъ сайта-визитки (2015)
- Форум Проверка на изменение содержимого сайтов? (2003)
- Форум Подскажите браузер содержимого сайта, аналогичный FlashGet (2012)
- Форум Хакеры стерли все содержимое сайта МК (2009)
- Форум требуется прога для закачки содержимого сайтов (2000)
- Форум Как указать исключения для “wget” при скачивании сайта? (2019)