LINUX.ORG.RU

История изменений

Исправление n0mad, (текущая версия) :

Но вопрос так и остался. Как смонтировать рассыпавшийся zfs raid? Раздел на одной из флешек читается

	raid-1      DEGRADED
	  mirror-0  DEGRADED
	    sdc1    ONLINE
	    sdc1    FAULTED  corrupted data

И для того чтобы прочитать данные - его надо подмонтировать, но не монтируется, и -f не помогает.

По результатам обсуждения возникли и другие вопросы:

1. Монтировать по PARTUUID или может лучше LVM2?
Идентификаторы типа Data_2 гораздо лучше читаются чем 72cf2c0b-fe32-4649-9aa6-45d1314d1139
При просмотре глазами - первый вариант логичен (/dev/raid_8/Data_8), а второй ID надо искать во всей иерархии разделов.

# zpool status zfs-solo-2
  pool: zfs-solo-2
 state: ONLINE
config:

	NAME                                    STATE     READ WRITE CKSUM
	zfs-solo-2                              ONLINE       0     0     0
	  9f4e87fe-3d0f-cc45-891f-1dbbafdfbe22  ONLINE       0     0     0

errors: No known data errors

# zpool status zfs-solo
  pool: zfs-solo
 state: ONLINE
config:

	NAME        STATE     READ WRITE CKSUM
	zfs-solo    ONLINE       0     0     0
	  Data_7    ONLINE       0     0     0

errors: No known data errors

Это пулы на разных флешках, один просто на разделе и подключен по UUID, а второй в LVM2 и подключен как LVM раздел.

Другое дело что в варианте с LVM получается масло масляное. Для каждого тома надо указать отдельный VG и отдельный LV
При этом они переносимые. На другой машине он так же будет /dev/raid_8/Data_8, причём вообще не надо ни чего настраивать на том же Bookworm, только добавляется отдельный геморрой по деактивации pv перед вытаскиванием носителя.

Вот сейчас сижу перед винтом с Power_On_hours=0, забитым нулями и думаю как инициализировать? zfs на устройство? zfs на gpt раздел? zfs на LVM? Или вообще побить на 3+1? Чтобы если что - можно было 3Т винт в рейд воткнуть...
(Первый винт уже побит потому что у него в паре 3Т, а новый или так же разбивать и 2 рейда делать 3Т+1Т или делать 4Т и всё рсинкать.)

Исходная версия n0mad, :

Но вопрос так и остался. Как смонтировать рассыпавшийся zfs raid? Раздел на одной из флешек читается

	raid-1      DEGRADED
	  mirror-0  DEGRADED
	    sdc1    ONLINE
	    sdc1    FAULTED  corrupted data

И для того чтобы прочитать данные - его надо подмонтировать, но не монтируется, и -f не помогает.

По результатам обсуждения возникли и другие вопросы:

1. Монтировать по PARTUUID или может лучше LVM2?
Идентификаторы типа Data_2 гораздо лучше читаются чем 72cf2c0b-fe32-4649-9aa6-45d1314d1139
При просмотре глазами - первый вариант логичен (/dev/raid_8/Data_8), а второй ID надо искать во всей иерархии разделов.

# zpool status zfs-solo-2
  pool: zfs-solo-2
 state: ONLINE
config:

	NAME                                    STATE     READ WRITE CKSUM
	zfs-solo-2                              ONLINE       0     0     0
	  9f4e87fe-3d0f-cc45-891f-1dbbafdfbe22  ONLINE       0     0     0

errors: No known data errors

# zpool status zfs-solo
  pool: zfs-solo
 state: ONLINE
config:

	NAME        STATE     READ WRITE CKSUM
	zfs-solo    ONLINE       0     0     0
	  Data_7    ONLINE       0     0     0

errors: No known data errors

Это пулы на разных флешках, один просто на разделе и подключен по UUID, а второй в LVM2 и подключен как LVM раздел.

Другое дело что в варианте с LVM получается масло масляное. Для каждого тома надо указать отдельный VG и отдельный LV
При этом они переносимые. На другой машине он так же будет /dev/raid_8/Data_8, причём вообще не надо ни чего настраивать на том же Bookworm, только добавляется отдельный геморрой по деактивации pv перед вытаскиванием носителя.

Вот сейчас сижу перед винтом с Power_On_hours=0, забитым нулями и думаю как инициализировать? zfs на устройство? zfs на gpt раздел? zfs на LVM? Или вообще побить на 3+1? Чтобы если что - можно было 3Т винт в рейд воткнуть...