Нет, нет - измеРить. Надо сравнить по скорости несколько решений, но они сильно разные. Даже языки разные, а значит надо учесть и скорость запуска интерпретатора.
В принципе пишут неплохо, но про отдачу - это весьма относительно. Если разница не настолько большая (в пределах 0,5 с) - тут не подгадаешь - слишком много переменных факторов: трафик, очередь и пр...
Я бы поставил в качестве фронтэнда nginx и у него для лога прописал
$request_time
время обработки запроса в секундах с точностью до миллисекунд; время, прошедшее с момента чтения первых байт от клиента до момента отправки последних байт клиенту и записи в лог
Но тут нужно учитывать, что регистрируется время с учетом выдачи данных клиенту, т.е. зависит от скорости с которой клиент прочитает ответ. У аппаче, наверняка для лога есть аналогичный параметр, но данные nginx будут меньше зависеть от внутренней логики обработки запроса апачем (будет он там запускать интерпретатор или что-то еще).
Так и я про это же. Зачем он нужен в такой схеме? Для увеличения задержки?
Мой ответ - поставить фронтендом nginx и измерить nginx'ом. Т.е. он нужен в такой схеме только для измерения времени генерации страниц. Причем единообразного измерения, независимо от того, какой будет бакэнд ибо:
Надо сравнить по скорости несколько решений, но они сильно разные. Даже языки разные, а значит надо учесть и скорость запуска интерпретатора.
т.е. непонятно, что именно будет генерить страницу, возможно не всегда апач.