LINUX.ORG.RU

История изменений

Исправление Minona, (текущая версия) :

sas10k обычный хард?

обычный, с чуть меньшим латенси и большей скоростью sequence io

L2ARC тут для уменьшения количества обращений к дискам

L2ARC by desing есть кэш на SSD(!) для random read, его можно попросить кэшить и sequence read, но это не даст профит если под ним пулл из более 1 диска.

Есть мнение, что он даст профит в любом случае

zil это не write cache, это sync_write_log, профит от него имеют те кто пишет в режиме sync_write, а это в основном СУБД. еще NFS этим страдает и iSCSI, но их можно переключить на async.

А какой бутерброд правильный?

вкусный =)

про L2ARC & ZIL я выше написал.

RAIDZ by desing предназначен для sequence io

и из-за особенностей хранения zfs/zvol records, на пуле с ashift=12 из 4-х дисков у zvol с дефолтным volblocksize=8k ты получишь оверхед в 50% против 33% у raid5, а можешь получить и все 100% как у mirror если они не пофиксили странную кратность выделения (N+1, где N - уровень raidz[1,2,3]) LBA под zfs/zvol records.

Исходная версия Minona, :

sas10k обычный хард?

обычный, с чуть меньшим латенси и большей скоростью sequence io

L2ARC тут для уменьшения количества обращений к дискам

L2ARC by desing есть кэш на SSD(!) для random read, его можно попросить кэшить и sequence read, но это не даст профит если под ним пулл из более 1 диска.

Есть мнение, что он даст профит в любом случае

zil это не write cache, это sync_write_log, профит от него имеют те кто пишет в режиме sync_write, а это в основном СУБД. еще NFS этим страдает и iSCSI, но их можно переключить на async.

А какой бутерброд правильный?

вкусный =)

про L2ARC & ZIL я выше написал.

RAIDZ by desing предназначен для sequence io

и из-за особенностей хранения zfs/zvol records, на пуле с ashift=12 из 4-х дисков у zvol с дефолтным volblocksize=8k ты получишь оверхед в 50% против 33% у raid5, а можешь получить и все 100% как у mirror если они не пофиксили странную гранулярность выделения (N+1, где N - уровень raidz[1,2,3]) LBA под zfs/zvol records.