LINUX.ORG.RU

ZFS на десктопе

 ,


0

4

Поставил на рабочий ноут Ubuntu 24.04 на ZFS с шифрованием, но почитал форум и теперь сомневаюсь, какие подводные камни и плюсы? Дает ли это какие-то возможности, например, можно ли сделать снапшот бекап на внешний HDD?

Из замеченных минусов теперь gdu (и ncdu) работают заметно дольше на некоторых директориях.

Все правильно сделал или тупанул и стоит пересоздать все в LVM + ext4?


Ответ на: комментарий от DALDON

Вот смотри какое у меня дерьмо творится на файло-помойке

Полетели разъёмы питания sata, плохой контакт. Разъёмы раздувает со временем вот так https://habrastorage.org/web/2fb/395/a3a/2fb395a3ad454859ba1f1a19a5392241.JPG

Лечится лёгким поджатием тисками и прогревом монтажным феном, но без фанатизма.

anonymous
()
Ответ на: комментарий от anonymous

Были поменены: ОЗУ, БП, ЦПУ, Диски, провода, контроллер, мат. плата, бекплейн. Проблема на месте… Уже нет идей что менять ещё.

@mord0d , поменяли всё. - Проблема на месте… :(

DALDON ★★★★★
()
Ответ на: комментарий от DALDON

В версии 2.2.0 завезли, а уже в следующем выпуске (2.2.1) их по умолчанию отключили «для предотвращения возможного повреждения данных». Включить их обратно у меня не получилось.

anonymous
()
Ответ на: комментарий от anonymous

Да не пиши бред. Фрагментация вообще не проблема на ssd. И ничего при дефрагментации не происходит…

Это ты пишешь бред. Речь идёт о дедупликации, а не дефрагментации. Дефрагментации в ZFS нет, её не может быть на CoW (напоминаю как попытки дефрагментации Btrfs превращают пул в тыкву).

mord0d ★★★★★
()
Ответ на: комментарий от DALDON

Вспомнилось тут...
Мужик один жаловался, что сосед его облучает. Шизиков немало, но менты решили таки к соседу заглянуть, а там - куча микроволновок у стены с открытыми дверцами! )
Я к чему... Может, место проклятое^W^W и правда излучение? Или рядом в сети что-то злое работает типа сварки или станка?

GAMer ★★★★★
()
Ответ на: комментарий от anonymous

Да. Вполне работает. За один раз делается одна, две машины. И так по кругу. Проблем нет. Нагрузка минимальная. Я сделал один раз, а потом только инкременты. И дедупликация, собственно.

DALDON ★★★★★
()
Ответ на: комментарий от mord0d

Привет. Да, похоже на баги, вероятно.

Итог: после каждого полного scrub количество ошибок контрольных сумм уменьшалось. Стали сбрасывать ошибки не на всех дисках сразу, а постепенно, и прогонять scrub…

Результат отличный… Не знаю, на долго или нет, но вот так:

NAME                                                  STATE     READ WRITE CKSUM
tank                                                  ONLINE       0     0     0
  mirror-0                                            ONLINE       0     0     0
    ata-WDC_WD4000FYYZ-01UL1B3_WD-WMC130F3ADL6        ONLINE       0     0     0
    ata-WDC_WD4003FRYZ-01F0DB0_VBHAHM3F               ONLINE       0     0     0
    ata-HGST_HUS726T4TALE6L4_VBHSH5XF                 ONLINE       0     0     0
  mirror-1                                            ONLINE       0     0     0
    ata-WDC_WD4000FYYZ-01UL1B2_WD-WCC136ZRL1K1        ONLINE       0     0     0
    ata-HGST_HUS726T4TALE6L4_VBHS678F                 ONLINE       0     0     0
  mirror-4                                            ONLINE       0     0     0
    ata-WDC_WD4003FRYZ-01F0DB0_V1JWM8LG               ONLINE       0     0     0
    ata-WDC_WD4003FRYZ-01F0DB0_V1JW4AGG               ONLINE       0     0     0
  mirror-5                                            ONLINE       0     0     0
    ata-WDC_WD30EFRX-68AX9N0_WD-WMC1T1003960          ONLINE       0     0     0
    ata-WDC_WD30EFRX-68AX9N0_WD-WMC1T1070377          ONLINE       0     0     0
dedup
  mirror-3                                            ONLINE       0     0     0
    ata-KINGSTON_SEDC500M480G_50026B72828B7BEA-part6  ONLINE       0     0     0
    ata-KINGSTON_SEDC500M480G_50026B72828B7831-part6  ONLINE       0     0     0
logs
  ata-KINGSTON_SEDC500M480G_50026B72828B7BEA-part4    ONLINE       0     0     0
  ata-KINGSTON_SEDC500M480G_50026B72828B7831-part4    ONLINE       0     0     0
cache
  ata-KINGSTON_SEDC500M480G_50026B72828B7BEA-part5    ONLINE       0     0     0
  ata-KINGSTON_SEDC500M480G_50026B72828B7831-part5    ONLINE       0     0     0

Что там у вас по дискам которые резко вышли из массива три штуки? Чем история закончилась?

DALDON ★★★★★
()
Ответ на: комментарий от DALDON

Итог: после каждого полного scrub количество ошибок контрольных сумм уменьшалось. Стали сбрасывать ошибки не на всех дисках сразу, а постепенно, и прогонять scrub…

Железо тухлое, админ некомпетентен.

anonymous
()
Ответ на: комментарий от DALDON

Результат отличный…

Это не может не радовать! Но как удалось сделать несимметричное зеркало?

Что там у вас по дискам которые резко вышли из массива три штуки? Чем история закончилась?

Данные удалось вытащить, диски воскресить, но некоторым жить недолго осталось. А может и долго. Я перестроил RAID-10 в RAID-1, так что если начнут дохнуть, буду заменять постепенно.

mord0d ★★★★★
()
Ответ на: комментарий от mord0d

Это не может не радовать! Но как удалось сделать несимметричное зеркало?

А в чем сложность? Мы ведь просто докинули mirror в zpool по мере надобности и всё. Поскольку, нагрузка на пул не большая, и диски по сути, заполняются по мере дополнения данных. Было mirror1 с двумя дисками по 10 тб., никто не мешает дополнить zvol дисками по 2 тб., в так же в зеркале, добавив mirror2. Если это просто хранилище в которое кладутся данные со скоростью 10 мегабайт в секунду, а то и меньше, как в моём случае, проблем нет, zfs будет просто дописывать данные на диски по 2 тб. Или я не корректно понял вопрос?

DALDON ★★★★★
()
Ответ на: комментарий от mord0d

Я перестроил RAID-10 в RAID-1

На продуктивных инсталляциях, стараюсь использовать просто raid1. Просто из SSD или из HDD с кешем.

Или делаю вот так:

# zpool status
  pool: tank
 state: ONLINE
  scan: scrub repaired 0B in 10:10:21 with 0 errors on Sun Jun  9 10:34:22 2024
config:


NAME                                                     STATE     READ WRITE CKSUM
tank                                                     ONLINE       0     0     0
  mirror-0                                               ONLINE       0     0     0
    sdb                                                  ONLINE       0     0     0
    sdc                                                  ONLINE       0     0     0
    sdd                                                  ONLINE       0     0     0
  mirror-1                                               ONLINE       0     0     0
    sde                                                  ONLINE       0     0     0
    sdf                                                  ONLINE       0     0     0
    sdg                                                  ONLINE       0     0     0
logs
  mirror-2                                               ONLINE       0     0     0
    sda4                                                 ONLINE       0     0     0
    ata-SAMSUNG_MZ7L3480HCHQ-00A07_S664NN0W701571-part4  ONLINE       0     0     0
cache
  sda5                                                   ONLINE       0     0     0
  ata-SAMSUNG_MZ7L3480HCHQ-00A07_S664NN0W701571-part5    ONLINE       0     0     0

В каждом плече у меня по три диска. Что бы выход из строя одного диска не заставлял нервничать. Далее: размер l2arc (persistent) у меня не особо большой (эффективность не более 20%). Что бы не отъедалось место от драгоценного arc. Ну и под sync операции у меня slog. - Для моих рабочих нагрузок (десятки не нагруженных VM) производительности хватает.

DALDON ★★★★★
()
Последнее исправление: DALDON (всего исправлений: 1)
Ответ на: комментарий от DALDON

А в чем сложность?

Это я протупил. Думал про страйп, написал про зеркало. Но тут именно несимметричное зеркало, и оно вполне возможно, зеркалить можно любым количеством дисков/разделов любой кусочек страйпа, оно перпендикулярно.

Или делаю вот так:

Сбалансированная схема, в общем оптимальная для чего угодно. Но у меня недостаток SATA-портов, чтобы накидать больше дисков, а до нормального бэкплейна всё лапки не доходят разобраться.

размер l2arc (persistent) у меня не особо большой (эффективность не более 20%). Что бы не отъедалось место от драгоценного arc.

20%

А больше и не надо, в общем-то. Если бы крутились многотерабайтные базы данных, то тогда кэши стоило бы подкрутить побольше.

mord0d ★★★★★
()