...
Создав раздел с рандомным (или не очень) содержанием из файлов с рандомным содержимым -- практически несжимаемые данные.
Создав раздел с тем же содержанием из файлов с нулевым содержимым -- идеально сжимаемые данные.
Натравить tar на дерево в разделе с сохранением в /dev/null.
Повторить для раздел{а,ов} с компрессией.
...
Поделиться информацией...
Очевидно, что зависит от характера задачи. Если она будет упираться в производительность процессора - то быстрее будет без сжатия. Если в скорость жосткого диска - быстрее будет со сжатием.
>На нтфс сжимаемые данные например ЕМНИП очень сильно фрагментируются.
Я помню на втором курсе мне понадобилось лишних 200 Мб на забитом под завязку 860Мб HDD. Денег на апгрейд не было, возможности удалить часть файлов тоже. Пошел на крайние меры и решил испытать Drvspace из 95-й Винды, мысленно попрощавшись с данными. И оно сработало(!) и дало лишних 300Мб, при этом перформанс даже немного улучшился. Никаких проблем не было даже тогда, а с тех пор прогресс наверно продвинулся. Правда, теперь желания рисковать данными почему-то нет.
Lzo1. Nocompress в работающем виде я не видел, а пара процентов разницы сжатия дают преимущество gzip'у только в нём - не в скорости декомпрессии. Я бы назвал 10-15% нагрузки на каждое ядро "лёгким" оверхедом, ибо его заметить сложно.
И да, в скорости чтения проигрывает только tmpfs, насколько я могу судить :)