LINUX.ORG.RU

ZFS кэши на чтение и запись.

 ,


1

2

Добрый день. zfs пул размер 5tb. После отличной работы в течении месяца, резко упала производительность. Параметры sysctl:
vm.kmem_size 33166184448
vm.kmem_size_scale 1
vm.kmem_size_min 0
vm.kmem_size_max 1319413950874
vfs.zfs.l2arc_noprefetch 1
vfs.zfs.l2arc_write_boost 8388608
vfs.zfs.l2arc_write_max 8388608
vfs.zfs.arc_meta_limit 8023110656
vfs.zfs.arc_min 4011555328
vfs.zfs.arc_max 32092442624
vm.kmem_size 33166184448
vm.kmem_size_max 1319413950874
vfs.zfs.txg.timeout 5
Производительность ARC кэша ~ 95% Добавил L2ARC, по zfs-mon его эффективность составила ~ 20%, настроен ISCSI, если я использую SSD SLC для ZIL файлов даст ли мне это прироста производительности? И как можно проверить скорость записи на пул ZFS? (через dd если писать из /dev/random скорость не превышает 30 мб. в сек. но в то же время diskinfo каждого диска выдаёт 80-100 мб. в сек.)



Последнее исправление: satis44 (всего исправлений: 1)

если я использую SSD SLC для ZIL файлов даст ли мне это прироста производительности?

Даст, только для тех приложений, которые открывают синхронную запись для файла. Например СУБД. Во всех остальных случаях, в общем виде: не даст прироста.

DALDON ★★★★★
()
Ответ на: комментарий от DALDON

iscsi

Ок. А если я пул использую для гипервизоров. В этом случае будет ли прирост?

satis44
() автор топика

Попробуй вместо чтения из /dev/random взять openssl aes128 -in /dev/zero -pass pass:123

deadNightTiger ★★★★★
()
Ответ на: комментарий от anonymous


NAME SIZE ALLOC FREE EXPANDSZ FRAG CAP DEDUP HEALTH ALTROOT
pool_all 13.6T 2.22T 11.4T - 10% 16% 1.00x ONLINE -
raidz1 13.6T 2.22T 11.4T - 10% 16%
gpt/hdd_1 - - - - - -
gpt/hdd_2 - - - - - -
gpt/hdd_3 - - - - - -
gpt/hdd_4 - - - - - -
gpt/hdd_5 - - - - - -
gpt/ssd 186G 128K 186G - 0% 0%
cache - - - - - -
gpt/ssd_ocz1 112G 4.69G 107G - 0% 4%
gpt/ssd_ocz2 112G 4.95G 107G - 0% 4%
zroot 82.5G 1.37G 81.1G - 1% 1% 1.00x ONLINE -
gpt/zfs0 82.5G 1.37G 81.1G - 1% 1%

satis44
() автор топика
Ответ на: комментарий от slowpony

Помогите мне понять соотнешение hits/miss в ARC кэше. И на ваш вопрос, нет я не уверен.

satis44
() автор топика
Ответ на: комментарий от slowpony

Добавил в качестве LOG ssd тип SLC, и судя по gstat в запись я точно не упирался, больше было похоже именно на производительность самого пула, потому что просаживается он только в момент, когда запускаешь одновременно все VM. Более того, после добавления в l2arc второй ssd, её использование упало до 1%.

satis44
() автор топика
Ответ на: комментарий от satis44

Вывод zfs-mon


Cache efficiency percentage:
10s 60s tot
ARC: 98.53 98.52 96.83
ARC demand data: 99.61 99.66 98.48
ARC demand metadata: 100.00 100.00 100.00
ARC prefetch data: 3.13 35.00 35.00
ARC prefetch metadata: 0.00 0.00 0.00
L2ARC: 0.00 0.00 2.08
ZFETCH: 95.52 80.51 79.23

satis44
() автор топика

Ещё один вопрос. Если я увеличил l2arc кэш, и процент его использования упал до 0, я так понимаю он стал не эффективен? Стоит ли убрать 1 ssd из кэша?

satis44
() автор топика
Ответ на: комментарий от satis44

Принял решение пересобрать ZFS в mirror вместо raidz

Для твоих VM это правильное решение.

anonymous
()
Ответ на: комментарий от satis44

у zfs плоховато с многопоточным в/в

ARC у тебя хорошо работает, L2ARC не очень помогает при последовательном в/в.

anonymous
()
Ответ на: комментарий от satis44

правильно, только сделай mirror hdd_1 hdd_2 mirror hdd_3 hdd_4 + hdd_5 hotspare

anonymous
()

Сделал по другому, раздобыл ocz saber 960GB (4 штуки). Собрал на них raidz, мигрировал на него все ВМ, отключил ZFETCH. В итоге:
Cache efficiency percentage:
10s 60s tot
ARC: 25.69 25.69 25.69
ARC demand data: 25.50 25.50 25.50
ARC demand metadata: 33.33 33.33 33.33
ARC prefetch data: 0.00 0.00 0.00
ARC prefetch metadata: 0.00 0.00 0.00
L2ARC: 11.57 11.57 11.57
ZFETCH: 0.00 0.00 0.00 На L2ARC не обращайте внимания, это со старого массива. В итоге по gstat, массив постоянно прыгает в %busy (200-300), примерно раз в несколько секунд, но при старых дисках он был стабильно (95-100%).

satis44
() автор топика
Ответ на: комментарий от anonymous

Может тогда отказаться от ZFS? Что тогда использовать? Ext4 или Ufs? Будет ли это производительнее учитывая, что на данный момент стоят только ssd диски.

satis44
() автор топика
Ответ на: комментарий от satis44

Включённый ZFETCH
Cache efficiency percentage:
10s 60s tot
ARC: 68.35 90.48 73.12
ARC demand data: 71.12 92.60 75.41
ARC demand metadata: 85.12 66.00 76.24
ARC prefetch data: 14.97 15.91 14.29
ARC prefetch metadata: 0.00 0.00 0.00
L2ARC: 0.00 0.47 0.16
ZFETCH: 35.31 44.17 39.25

satis44
() автор топика
Ответ на: комментарий от satis44

Чувство такое, что ZFETCH не эффективен и с ssd не стало быстрее, всё равно всё висит.

satis44
() автор топика
Ответ на: комментарий от satis44

Я честно говоря не знал.

Да ты и сейчас не знаешь, а тупо принимаешь на веру анонимное утверждение

anonymous
()
Ответ на: комментарий от anonymous

Я не принимаю на веру. Я просто говорю что не знал об этом. Но вот на багрепорте FreeNas как раз об этом говорят. Не думаю, что стоит разводить тут обычный пустобрех, для этого есть сети Вконтакте.

satis44
() автор топика
Ответ на: комментарий от satis44

Не думаю, что стоит разводить тут обычный пустобрех

Ну так и не разводи. Ссылаешься на баг репорт - приводи ссылку нормальную. Да и багрепорту на FreeNAS как-то несерьезно. Если б на баг в ZoL'овском или illumos'овском багтрекере - еще куда ни шло.

anonymous
()
Ответ на: комментарий от satis44

Вообщем я уже всё перепробовал. Крутил настройки sysctl, менял диски. Итог один, работа медленная.

satis44
() автор топика
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.