Требуется постоянно грепать информацию с сети, для этого использую curl. Но микрозапросов довольно много, а каждый запрос «кушает» весьма прилично - 158 мб RAM! Памяти на сервере совсем не много и к такой объем ресурсов для такой простой операции видится избыточным.
Есть ли способ урезать занимаемый курлом размер памяти любым пусть даже экзотическим способом? Возможно есть какая-то утилита, которая бы выделила основную часть всех процессов на подобие архиватора, а вновь появляющиеся бы строились на основе? Или быть может есть настройка в курле лайт режим? Можно ли курс собрать облегченный? Вообще любые советы приветствуются!