LINUX.ORG.RU

Сообщения SysF

 

Восстановление ФС на mdadm с RAID5

Всем привет! Долго и успешно крутился NAS на OMV с RAID5 из 5 дисков по 3 Тб, где-то лет 6-7. Массив собран на mdadm, ФС была EXT4. Диски WD RED по 3 Тб (один Purple), парковка была отключена сразу. Вышел из строя один Red, причем неожиданно, по SMART все ок. Раскручивается, распарковывает головы, паркует назад, дораскручивается, снова выводит головы, на парковку и отключается. Но это не суть. Тратить бабки на БУ Red не хотелось, решил уменьшить массив на 1 диск. Занято было около 60% доступного места. Собственно почитав, сделал это через mdadm –attach. По итогу один диск был выведен из массива, стал как spare и заменил собой вышедший из строя. Массив собрался нормально, состояние clean из 4 дисков. Но что-то произошло с ФС на массиве, хотя такие танцы вроде можно проворачивать с EXT4, в отличии от XFS. Причем отпала она, как мне кажется, еще до всех этих фокусов.

По итогу имеется массив /dev/md127, тут все ровно, в интерфейсе OMV ФС значится, но тоже как /dev/md127, что вроде неправильно. По идее она должна быть md0 или md1. К сожалению я с никсами больше на ВЫ, так что не совсем понимаю, как это восстановить.

Инфа:

root@nas:~# cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4] [linear] [multipath] [r
aid0] [raid1] [raid10]
md127 : active raid5 sdd[4] sda[0] sdb[2] sdc[3]
      8790795264 blocks super 1.2 level 5, 512k chunk, algorith
m 2 [4/4] [UUUU]

root@nas:~# blkid
/dev/sda: UUID="8370f378-941e-4e75-7506-41bbe5ab6163" UUID_SUB=
"0b07c019-3782-39ac-d40f-88a82aed28a2" LABEL="NAS:RAID5" TYPE="
linux_raid_member"
/dev/sdd: UUID="8370f378-941e-4e75-7506-41bbe5ab6163" UUID_SUB=
"9ca68a5a-c78f-4190-c9cd-f0f6cb4499f8" LABEL="NAS:RAID5" TYPE="
linux_raid_member"
/dev/sdc: UUID="8370f378-941e-4e75-7506-41bbe5ab6163" UUID_SUB=
"358b1bf8-e191-224a-a3ab-fffe605f094c" LABEL="NAS:RAID5" TYPE="
linux_raid_member"
/dev/sdb: UUID="8370f378-941e-4e75-7506-41bbe5ab6163" UUID_SUB=
"abb15971-0fe3-7a5e-f208-698465a99954" LABEL="NAS:RAID5" TYPE="
linux_raid_member"
/dev/md127: LABEL="VOLUME" UUID="822dfe6d-2624-4d70-ac1c-be8aca
7c28fe" BLOCK_SIZE="4096" TYPE="ext4"
/dev/sde1: UUID="9681-9555" BLOCK_SIZE="512" TYPE="vfat" PARTUU
ID="1aa5f2fa-eec7-410b-9487-f6217fa4989b"
/dev/sde2: UUID="6eb17f20-186f-4132-b981-75eca81abf0e" BLOCK_SI
ZE="4096" TYPE="ext4" PARTUUID="3360523e-4190-4bb8-bff5-5013663
b8c48"
/dev/sde3: UUID="877624e6-00f9-4873-9bc7-07b8abe24aa1" TYPE="sw
ap" PARTUUID="4804021f-b1d0-41b1-99e0-a2ee76c20db7"
 
Version : 1.2
     Creation Time : Wed Jan  1 22:59:33 2014
        Raid Level : raid5
        Array Size : 8790795264 (8383.56 GiB 9001.77 GB)
     Used Dev Size : 2930265088 (2794.52 GiB 3000.59 GB)
      Raid Devices : 4
     Total Devices : 4
       Persistence : Superblock is persistent

       Update Time : Sat Jun 29 11:53:43 2024
             State : clean
    Active Devices : 4
   Working Devices : 4
    Failed Devices : 0
     Spare Devices : 0

            Layout : left-symmetric
        Chunk Size : 512K

Consistency Policy : resync

              Name : NAS:RAID5
              UUID : 8370f378:941e4e75:750641bb:e5ab6163
            Events : 35969

    Number   Major   Minor   RaidDevice State
       0       8        0        0      active sync   /dev/sda
       4       8       48        1      active sync   /dev/sdd
       2       8       16        2      active sync   /dev/sdb
       3       8       32        3      active sync   /dev/sdc

Прошу помочь и сильно не ругать ))

Перемещено hobbit из general

 , ,

SysF
()

RSS подписка на новые темы