Как в линуксе с этим? Каждый сервер реализует свой цикл ожидания запроса или они практически все используют низкоуровневую оптимальную функцию из ядра? Сильно ли повышается энергопотребление при увеличении количества ожидающих запроса серверов на машине?
Я правильно понимаю, что dbus построен поверх обыкновенных сокетов и с вышеназванных вопросов ничего особенного для него нет? Тогда ведь если приложение ожидает сигнала от dbus, то оно превращается в обыкновенный слушателя сокета с циклом ожидания?