LINUX.ORG.RU

История изменений

Исправление Acceptor, (текущая версия) :

Вопрос второй. Можно ли сделать так, чтобы запросы из списка попадали в один кэш, а остальные в другой?

можно, но надо поднять второй проксисервер, например на nginx, а запросы к url-ам из текстового файла рулить через acl сквида, т.е. запросы на все ссылки что в файле через сквид редиректить на nginx. закешить все одним махом можно так:

for i in `cat file _with_urls.txt` ; do wget  -q ${i} ; done

другой вопрос нафига такой изврат? если ж надо закешить что-то бесконечно... подними dokuwiki, например и скопипасти все статьи к себе в локалку. можно не сразу, а по мере нужды в статьях.

Исправление Acceptor, :

Вопрос второй. Можно ли сделать так, чтобы запросы из списка попадали в один кэш, а остальные в другой?

можно, но надо поднять второй проксисервер, например на nginx, а запросы к url-ам из текстового файла рулить через acl сквида, т.е. запросы на все ссылки что в файле через сквид редиректить на nginx. закушить все одним махом можно так:

for i in `cat file _with_urls.txt` ; do wget  -q ${i} ; done

другой вопрос нафига такой изврат? если ж надо закешить что-то бесконечно... подними dokuwiki, например и скопипасти все статьи к себе в локалку. можно не сразу, а по мере нужды в статьях.

Исходная версия Acceptor, :

Вопрос второй. Можно ли сделать так, чтобы запросы из списка попадали в один кэш, а остальные в другой?

можно, но надо поднять второй проксисервер, например на nginx, а запросы к url-ам из текстового файла рулить через acl сквида, т.е. запросы на все ссылки что в файле через сквид редиректить на nginx.

другой вопрос нафига такой изврат? если ж надо закешить что-то бесконечно... подними dokuwiki, например и скопипасти все статьи к себе в локалку. можно не сразу, а по мере нужды в статьях.