История изменений
Исправление
kirk_johnson,
(текущая версия)
:
В случае обработки сотен тысяч текстовых файлов конечно же. Но, это по производительности. А по жручести памяти всё произойдёт гораздо быстрее. Тем более что часто проще дампить кучу текста не по разным текстовым файлам, а в один. Так получаются текстовые файлы на много гигабайт (в KOI8-R). А если ещё начать работать с несколькими параллельно...
На моем древнем i3 обе программы занимают примерно одинаковое время. Мб просто не стоит обрабатывать сотни твсяч текстовых файлов на RPI?
P.S. И это время не 52 секунды:
$ cat test1.data | time ./test1
60
./test1 0.00s user 0.00s system 45% cpu 0.002 total
$ cat test2.data | time ./test2
7
./test2 0.00s user 0.00s system 0% cpu 0.002 total
Исходная версия
kirk_johnson,
:
В случае обработки сотен тысяч текстовых файлов конечно же. Но, это по производительности. А по жручести памяти всё произойдёт гораздо быстрее. Тем более что часто проще дампить кучу текста не по разным текстовым файлам, а в один. Так получаются текстовые файлы на много гигабайт (в KOI8-R). А если ещё начать работать с несколькими параллельно...
На моем древнем i3 обе программы занимают примерно одинаковое время. Мб просто не стоит обрабатывать сотни твсяч текстовых файлов на RPI?