История изменений
Исправление
Minona,
(текущая версия)
:
sas10k обычный хард?
обычный, с чуть меньшим латенси и большей скоростью sequence io
L2ARC тут для уменьшения количества обращений к дискам
L2ARC by desing есть кэш на SSD(!) для random read, его можно попросить кэшить и sequence read, но это не даст профит если под ним пулл из более 1 диска.
Есть мнение, что он даст профит в любом случае
zil это не write cache, это sync_write_log, профит от него имеют те кто пишет в режиме sync_write, а это в основном СУБД. еще NFS этим страдает и iSCSI, но их можно переключить на async.
А какой бутерброд правильный?
вкусный =)
про L2ARC & ZIL я выше написал.
RAIDZ by desing предназначен для sequence io
и из-за особенностей хранения zfs/zvol records, на пуле с ashift=12 из 4-х дисков у zvol с дефолтным volblocksize=8k ты получишь оверхед в 50% против 33% у raid5, а можешь получить и все 100% как у mirror если они не пофиксили странную кратность выделения (N+1, где N - уровень raidz[1,2,3]) LBA под zfs/zvol records.
Исходная версия
Minona,
:
sas10k обычный хард?
обычный, с чуть меньшим латенси и большей скоростью sequence io
L2ARC тут для уменьшения количества обращений к дискам
L2ARC by desing есть кэш на SSD(!) для random read, его можно попросить кэшить и sequence read, но это не даст профит если под ним пулл из более 1 диска.
Есть мнение, что он даст профит в любом случае
zil это не write cache, это sync_write_log, профит от него имеют те кто пишет в режиме sync_write, а это в основном СУБД. еще NFS этим страдает и iSCSI, но их можно переключить на async.
А какой бутерброд правильный?
вкусный =)
про L2ARC & ZIL я выше написал.
RAIDZ by desing предназначен для sequence io
и из-за особенностей хранения zfs/zvol records, на пуле с ashift=12 из 4-х дисков у zvol с дефолтным volblocksize=8k ты получишь оверхед в 50% против 33% у raid5, а можешь получить и все 100% как у mirror если они не пофиксили странную гранулярность выделения (N+1, где N - уровень raidz[1,2,3]) LBA под zfs/zvol records.