История изменений
Исправление Acceptor, (текущая версия) :
Вопрос второй. Можно ли сделать так, чтобы запросы из списка попадали в один кэш, а остальные в другой?
можно, но надо поднять второй проксисервер, например на nginx, а запросы к url-ам из текстового файла рулить через acl сквида, т.е. запросы на все ссылки что в файле через сквид редиректить на nginx. закешить все одним махом можно так:
for i in `cat file _with_urls.txt` ; do wget -q ${i} ; done
другой вопрос нафига такой изврат? если ж надо закешить что-то бесконечно... подними dokuwiki, например и скопипасти все статьи к себе в локалку. можно не сразу, а по мере нужды в статьях.
Исправление Acceptor, :
Вопрос второй. Можно ли сделать так, чтобы запросы из списка попадали в один кэш, а остальные в другой?
можно, но надо поднять второй проксисервер, например на nginx, а запросы к url-ам из текстового файла рулить через acl сквида, т.е. запросы на все ссылки что в файле через сквид редиректить на nginx. закушить все одним махом можно так:
for i in `cat file _with_urls.txt` ; do wget -q ${i} ; done
другой вопрос нафига такой изврат? если ж надо закешить что-то бесконечно... подними dokuwiki, например и скопипасти все статьи к себе в локалку. можно не сразу, а по мере нужды в статьях.
Исходная версия Acceptor, :
Вопрос второй. Можно ли сделать так, чтобы запросы из списка попадали в один кэш, а остальные в другой?
можно, но надо поднять второй проксисервер, например на nginx, а запросы к url-ам из текстового файла рулить через acl сквида, т.е. запросы на все ссылки что в файле через сквид редиректить на nginx.
другой вопрос нафига такой изврат? если ж надо закешить что-то бесконечно... подними dokuwiki, например и скопипасти все статьи к себе в локалку. можно не сразу, а по мере нужды в статьях.