Всем доброго.
wget, curl, php скрипты, всевозможные ключи, при помощи которых можно очень выборочно качать содержимое разных web ресурсов - это все здорово. Но вот картинка, как пример, коих тонны на многих сайтах - страница имеет определенное содержимое. Картинки, ссылки, текст и прочие. Сторона сервера генерит определенный код для клиента и тот все это дело скачивает в html etc. Со структурой.
Качаем условную заглавную страницу какого-нибудь сайта со всей этой структурой, а затем клиент (wget, или какая другая программа) переходит по ссылке на другую страницу сайта, где !!! мы видим все то же самое содержимое (ну, к примеру, сайт устроен так, что разные менюшки, списки ссылок есть на каждой странице сайта и они ! одинаковые) за исключением лишь определенной полоски условной «новости». А wget, или какая другая программа будет заново качать вообще всю страницу! Если страниц десятки тысяч, то программа будет качать каждую страницу, которая ладно, что будет весить каждая по мегабайту из-за оформления, пусть и одинакового для всего сайта, но это займет еще и тонну времени.
На стороне сервера может быть все просто - php сгенерил код и всё, а качалка будет его каждый раз снова тащить - один и тот же код.
Просто на столько давно изучал эту всю тему, что даже не представляю себе, с чего начать, что бы решить вопрос монстроуозности подхода, так как гугл банально отдает результаты любые, но только не по решению вопроса, как скачать основное содержимое лишь один раз, если это php.
Решения, вообще, существуют, или тут без данных серверной стороны не через web не обойтись?
Похожие темы
- Форум Скачивание сайта через сеанс. (2018)
- Форум Программа для скачивания сайта (2007)
- Форум Сайт для скачивания файлов (2005)
- Форум Локальная копия сайта. Скачивание целого сайта. (2008)
- Форум Содержимое Ъ сайта-визитки (2015)
- Форум Проверка на изменение содержимого сайтов? (2003)
- Форум Подскажите браузер содержимого сайта, аналогичный FlashGet (2012)
- Форум Хакеры стерли все содержимое сайта МК (2009)
- Форум требуется прога для закачки содержимого сайтов (2000)
- Форум Как указать исключения для “wget” при скачивании сайта? (2019)