Восстановление ФС на mdadm с RAID5
Всем привет! Долго и успешно крутился NAS на OMV с RAID5 из 5 дисков по 3 Тб, где-то лет 6-7. Массив собран на mdadm, ФС была EXT4. Диски WD RED по 3 Тб (один Purple), парковка была отключена сразу. Вышел из строя один Red, причем неожиданно, по SMART все ок. Раскручивается, распарковывает головы, паркует назад, дораскручивается, снова выводит головы, на парковку и отключается. Но это не суть. Тратить бабки на БУ Red не хотелось, решил уменьшить массив на 1 диск. Занято было около 60% доступного места. Собственно почитав, сделал это через mdadm –attach. По итогу один диск был выведен из массива, стал как spare и заменил собой вышедший из строя. Массив собрался нормально, состояние clean из 4 дисков. Но что-то произошло с ФС на массиве, хотя такие танцы вроде можно проворачивать с EXT4, в отличии от XFS. Причем отпала она, как мне кажется, еще до всех этих фокусов.
По итогу имеется массив /dev/md127, тут все ровно, в интерфейсе OMV ФС значится, но тоже как /dev/md127, что вроде неправильно. По идее она должна быть md0 или md1. К сожалению я с никсами больше на ВЫ, так что не совсем понимаю, как это восстановить.
Инфа:
root@nas:~# cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4] [linear] [multipath] [r
aid0] [raid1] [raid10]
md127 : active raid5 sdd[4] sda[0] sdb[2] sdc[3]
8790795264 blocks super 1.2 level 5, 512k chunk, algorith
m 2 [4/4] [UUUU]
root@nas:~# blkid
/dev/sda: UUID="8370f378-941e-4e75-7506-41bbe5ab6163" UUID_SUB=
"0b07c019-3782-39ac-d40f-88a82aed28a2" LABEL="NAS:RAID5" TYPE="
linux_raid_member"
/dev/sdd: UUID="8370f378-941e-4e75-7506-41bbe5ab6163" UUID_SUB=
"9ca68a5a-c78f-4190-c9cd-f0f6cb4499f8" LABEL="NAS:RAID5" TYPE="
linux_raid_member"
/dev/sdc: UUID="8370f378-941e-4e75-7506-41bbe5ab6163" UUID_SUB=
"358b1bf8-e191-224a-a3ab-fffe605f094c" LABEL="NAS:RAID5" TYPE="
linux_raid_member"
/dev/sdb: UUID="8370f378-941e-4e75-7506-41bbe5ab6163" UUID_SUB=
"abb15971-0fe3-7a5e-f208-698465a99954" LABEL="NAS:RAID5" TYPE="
linux_raid_member"
/dev/md127: LABEL="VOLUME" UUID="822dfe6d-2624-4d70-ac1c-be8aca
7c28fe" BLOCK_SIZE="4096" TYPE="ext4"
/dev/sde1: UUID="9681-9555" BLOCK_SIZE="512" TYPE="vfat" PARTUU
ID="1aa5f2fa-eec7-410b-9487-f6217fa4989b"
/dev/sde2: UUID="6eb17f20-186f-4132-b981-75eca81abf0e" BLOCK_SI
ZE="4096" TYPE="ext4" PARTUUID="3360523e-4190-4bb8-bff5-5013663
b8c48"
/dev/sde3: UUID="877624e6-00f9-4873-9bc7-07b8abe24aa1" TYPE="sw
ap" PARTUUID="4804021f-b1d0-41b1-99e0-a2ee76c20db7"
Version : 1.2
Creation Time : Wed Jan 1 22:59:33 2014
Raid Level : raid5
Array Size : 8790795264 (8383.56 GiB 9001.77 GB)
Used Dev Size : 2930265088 (2794.52 GiB 3000.59 GB)
Raid Devices : 4
Total Devices : 4
Persistence : Superblock is persistent
Update Time : Sat Jun 29 11:53:43 2024
State : clean
Active Devices : 4
Working Devices : 4
Failed Devices : 0
Spare Devices : 0
Layout : left-symmetric
Chunk Size : 512K
Consistency Policy : resync
Name : NAS:RAID5
UUID : 8370f378:941e4e75:750641bb:e5ab6163
Events : 35969
Number Major Minor RaidDevice State
0 8 0 0 active sync /dev/sda
4 8 48 1 active sync /dev/sdd
2 8 16 2 active sync /dev/sdb
3 8 32 3 active sync /dev/sdc
Прошу помочь и сильно не ругать ))
Перемещено hobbit из general