История изменений
Исправление n0mad, (текущая версия) :
Но вопрос так и остался. Как смонтировать рассыпавшийся zfs raid? Раздел на одной из флешек читается
raid-1 DEGRADED
mirror-0 DEGRADED
sdc1 ONLINE
sdc1 FAULTED corrupted data
И для того чтобы прочитать данные - его надо подмонтировать, но не монтируется, и -f не помогает.
По результатам обсуждения возникли и другие вопросы:
1. Монтировать по PARTUUID или может лучше LVM2?
Идентификаторы типа Data_2 гораздо лучше читаются чем 72cf2c0b-fe32-4649-9aa6-45d1314d1139
При просмотре глазами - первый вариант логичен (/dev/raid_8/Data_8), а второй ID надо искать во всей иерархии разделов.
# zpool status zfs-solo-2
pool: zfs-solo-2
state: ONLINE
config:
NAME STATE READ WRITE CKSUM
zfs-solo-2 ONLINE 0 0 0
9f4e87fe-3d0f-cc45-891f-1dbbafdfbe22 ONLINE 0 0 0
errors: No known data errors
# zpool status zfs-solo
pool: zfs-solo
state: ONLINE
config:
NAME STATE READ WRITE CKSUM
zfs-solo ONLINE 0 0 0
Data_7 ONLINE 0 0 0
errors: No known data errors
Это пулы на разных флешках, один просто на разделе и подключен по UUID, а второй в LVM2 и подключен как LVM раздел.
Другое дело что в варианте с LVM получается масло масляное. Для каждого тома надо указать отдельный VG и отдельный LV
При этом они переносимые. На другой машине он так же будет /dev/raid_8/Data_8, причём вообще не надо ни чего настраивать на том же Bookworm, только добавляется отдельный геморрой по деактивации pv перед вытаскиванием носителя.
Вот сейчас сижу перед винтом с Power_On_hours=0, забитым нулями и думаю как инициализировать? zfs на устройство? zfs на gpt раздел? zfs на LVM? Или вообще побить на 3+1? Чтобы если что - можно было 3Т винт в рейд воткнуть...
(Первый винт уже побит потому что у него в паре 3Т, а новый или так же разбивать и 2 рейда делать 3Т+1Т или делать 4Т и всё рсинкать.)
Исходная версия n0mad, :
Но вопрос так и остался. Как смонтировать рассыпавшийся zfs raid? Раздел на одной из флешек читается
raid-1 DEGRADED
mirror-0 DEGRADED
sdc1 ONLINE
sdc1 FAULTED corrupted data
И для того чтобы прочитать данные - его надо подмонтировать, но не монтируется, и -f не помогает.
По результатам обсуждения возникли и другие вопросы:
1. Монтировать по PARTUUID или может лучше LVM2?
Идентификаторы типа Data_2 гораздо лучше читаются чем 72cf2c0b-fe32-4649-9aa6-45d1314d1139
При просмотре глазами - первый вариант логичен (/dev/raid_8/Data_8), а второй ID надо искать во всей иерархии разделов.
# zpool status zfs-solo-2
pool: zfs-solo-2
state: ONLINE
config:
NAME STATE READ WRITE CKSUM
zfs-solo-2 ONLINE 0 0 0
9f4e87fe-3d0f-cc45-891f-1dbbafdfbe22 ONLINE 0 0 0
errors: No known data errors
# zpool status zfs-solo
pool: zfs-solo
state: ONLINE
config:
NAME STATE READ WRITE CKSUM
zfs-solo ONLINE 0 0 0
Data_7 ONLINE 0 0 0
errors: No known data errors
Это пулы на разных флешках, один просто на разделе и подключен по UUID, а второй в LVM2 и подключен как LVM раздел.
Другое дело что в варианте с LVM получается масло масляное. Для каждого тома надо указать отдельный VG и отдельный LV
При этом они переносимые. На другой машине он так же будет /dev/raid_8/Data_8, причём вообще не надо ни чего настраивать на том же Bookworm, только добавляется отдельный геморрой по деактивации pv перед вытаскиванием носителя.
Вот сейчас сижу перед винтом с Power_On_hours=0, забитым нулями и думаю как инициализировать? zfs на устройство? zfs на gpt раздел? zfs на LVM? Или вообще побить на 3+1? Чтобы если что - можно было 3Т винт в рейд воткнуть...