Сервер на Debian 6.
Представим такую ситуацию, есть висящий сайт, к которому мы делаем запрос file_get_contents(url) или курлом, скрипт подвисает, пока не пройдёт указанный таймаут на его выполнение, ожидая ответа.
Проблема в том, что достаточно двух-трёх таких get_contents, чтобы fastcgi при почти дефолтном конфиге просто перестал отвечать. То есть ни нагрузки, ничего, он просто ждёт, когда это всё выполнится. Какой именно параметр конфига может сделать такой затык так быстро?
Да, я знаю, что для удалённых подключений лучше самому сделать фукцию с сокетом, или просто курл с ограничением времени, который ткнётся, проверит, что всё в порядке, и подгрузит файл, но скорее-всего такую же проблему можно будет получить просто при большем количестве одновременных запусков такого скрипта, ибо при времени ожидании в одну секунду, сценарий должен быть похожий.
Просто вот явных «могу запустить столько копий» чего-то не заметил.