Задачи в принципе однопоточные. И всё равно непонятно, как затраченное CPU время (особенно при sys==0) может быть больше, чем время между началом и концом измерения :)
Опять же - все еще пишут что user будет общим результатом, на все ядра.
Ну и капитанство с вики:
The term «real time» in this context refers to elapsed «wall clock» time, like using a stop watch. The total CPU time (user time + sys time) may be more or less than that value. Because a program may spend some time waiting and not executing at all (whether in user mode or system mode) the real time may be greater than the total CPU time. Because a program may fork children whose CPU times (both user and sys) are added to the values reported by the time command, the total CPU time may be greater than the real time.
Если это встроенная в bash команда time, то там не тривиальная арифметика, там не только время самой команды, но и время bash, истраченное на time суммируются. Bash дважды вызывает getrusage() для RUSAGE_SELF и RUSAGE_CHILDREN перед и после fork(), а потом выводит сумму от разницы до и после fork.