LINUX.ORG.RU
ФорумAdmin

Диск, удалённый из рейда

 ,


0

3

Жил-был raid1, один диск умер физически и его убрали. Теперь mdadm -D /dev/md1 выдаёт следующее:

/dev/md1:
           Version : 0.90
     Creation Time : Fri Feb 11 15:42:10 2022
        Raid Level : raid1
        Array Size : 14155712 (13.50 GiB 14.50 GB)
     Used Dev Size : 14155712 (13.50 GiB 14.50 GB)
      Raid Devices : 2
     Total Devices : 1
   Preferred Minor : 1
       Persistence : Superblock is persistent

       Update Time : Fri Oct 14 11:05:42 2022
             State : clean, degraded 
    Active Devices : 1
   Working Devices : 1
    Failed Devices : 0
     Spare Devices : 0

Consistency Policy : resync

              UUID : e71fccc3:264b1801:96fc04a8:108a4af7
            Events : 0.49981

    Number   Major   Minor   RaidDevice State
       -       0        0        0      removed
       1       8        1        1      active sync   /dev/sda1

У меня вопрос про предпоследнюю строку, где указано, что вроде как есть removed диск. С этим нужно что-то делать? Надо как-то убирать из рейда этот removed диск?

Если выполнить mdadm /dev/md1 -r detached, то команда отрабатывает, но этот removed в рейде остаётся.

Ответ на: комментарий от cashalot

Ничего не нужно, ты же сам видишь что всё работает исправно.

firkax ★★★★★
()

Интересный размер массива и откуда Вы ждёте диск, с таким размером, который «ещё не подъехал». Что-то мне подсказывает, что это всё на виртуалке тестится.

Shprot ★★
()
Ответ на: комментарий от Shprot

Внезапно, mdadm может создавать зеркало для разделов, а не для всего диска.

Может он резервирует только root-раздел через mdadm, а остальное резервируется другим способом (drbd, ceph и т.д.)?

Pinkbyte ★★★★★
()
Ответ на: комментарий от cashalot

На замену тебе должно приехать два диска.

Один выставишь, а второй будет лежать на полке про запас. Либо можешь подключить как горячую замену.

Но судя по размеру рейд к тебя резервируется только часть диска, один из разделов, тогда думаю смысла нет.

kostik87 ★★★★★
()
Ответ на: комментарий от Shprot

Что-то мне подсказывает, что это всё на виртуалке тестится.

Исходя из чего вы сделали такой вывод?

anc ★★★★★
()
Ответ на: комментарий от anc

ну размер диска 14 гб вестимо подсказал.

Человек не заметил, что это только одна партиция - /dev/sda1

AVL2 ★★★★★
()
Ответ на: комментарий от AVL2

Так я не вам вопрос задал. Я знаю почему он задал такой вопрос, но зачем подсказки накидывать?

anc ★★★★★
()
Ответ на: комментарий от AVL2

да ладно, выше все уже написали.

Не увидел.

anc ★★★★★
()
Ответ на: комментарий от Shprot

Интересный размер массива и откуда Вы ждёте диск, с таким размером, который «ещё не подъехал». Что-то мне подсказывает, что это всё на виртуалке тестится.

Оба диска сначала разбиты на 4 раздела, а потом из четырёх разделов собраны 4 рейда:

md1: raid1: /
md2: raid0: swap
md3: raid0: /tmp
md4: raid1: /var
cashalot
() автор топика

Я чего-то перемудрил и теперь у меня рейды md2 и md3 называются соответственно md126 и md127:

lsblk -o name,type,uuid
NAME      TYPE  UUID
sda       disk  
├─sda1    part  e71fccc3-264b-1801-96fc-04a8108a4af7
│ └─md1   raid1 0328af05-54b3-4df3-b477-d02365646d55
├─sda2    part  cb9cbb5c-3dc1-63bd-9726-102ad79de4f5
│ └─md126 raid0 c1fb0342-1842-4603-8ece-77d77d5b47cb
├─sda3    part  68cdc968-9a61-d093-1b93-0e38b6008d83
│ └─md127 raid0 8bc940c4-e276-4bc2-bed0-cf12fe6d2852
└─sda4    part  bae1ea24-21c9-cfb7-96fc-04a8108a4af7
  └─md4   raid1 6f0c0291-7649-429d-9faf-1a999335742d
sdb       disk  
├─sdb1    part  e71fccc3-264b-1801-96fc-04a8108a4af7
│ └─md1   raid1 0328af05-54b3-4df3-b477-d02365646d55
├─sdb2    part  cb9cbb5c-3dc1-63bd-9726-102ad79de4f5
│ └─md126 raid0 c1fb0342-1842-4603-8ece-77d77d5b47cb
├─sdb3    part  68cdc968-9a61-d093-1b93-0e38b6008d83
│ └─md127 raid0 8bc940c4-e276-4bc2-bed0-cf12fe6d2852
└─sdb4    part  bae1ea24-21c9-cfb7-96fc-04a8108a4af7
  └─md4   raid1 6f0c0291-7649-429d-9faf-1a999335742d

Вероятно это потому, что я mdadm.conf собирал ручками:

cat /etc/mdadm/mdadm.conf
# mdadm.conf
#
# !NB! Run update-initramfs -u after updating this file.
# !NB! This will ensure that initramfs has an uptodate copy.
#
# Please refer to mdadm.conf(5) for information about this file.
#

# by default (built-in), scan all partitions (/proc/partitions) and all
# containers for MD superblocks. alternatively, specify devices to scan, using
# wildcards if desired.
#DEVICE partitions containers

# automatically tag new arrays as belonging to the local system
HOMEHOST <system>

# instruct the monitoring daemon where to send mail alerts
MAILADDR root

# definitions of existing MD arrays
ARRAY /dev/md1 UUID=e71fccc3:264b1801:96fc04a8:108a4af7
ARRAY /dev/md2 UUID=c1fb0342:18424603:8ece77d7:7d5b47cb
ARRAY /dev/md3 UUID=8bc940c4:e2764bc2:bed0cf12:fe6d2852
ARRAY /dev/md4 UUID=bae1ea24:21c9cfb7:96fc04a8:108a4af7

Я пробовал остановить md126 и переименовать:

swapoff -a
mdadm -S /dev/md126
mdadm --assemble /dev/md2 --name=md2 --update=name /dev/sda2 /dev/sdb2

Но после перезагрузки md2 опять превращается в md126.

Подскажите, как мне починить md2 и md3?

cashalot
() автор топика
Ответ на: комментарий от cashalot

Разобрался. После пересборки рейда надо было сделать

mdadm -Db /dev/md2

и полученный вывод записать в mdadm.conf

Ну а после выполнить

update-initramfs -u

и перезагрузиться.

cashalot
() автор топика
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.