Centos 7
Создан raid10 mdadm из 4 дисков
mdadm --create /dev/md10 --level=10 --raid-devices=4 /dev/sdc /dev/sdd /dev/sde /dev/sdf
добавлен к vg, vgextend vg_FS1_DATA /dev/md10
Что делал. Убрал sdc диск из /dev/md10 физически из сервера, воткнул обратно. Убрал sde диск /dev/md10 физически из сервера, воткнул обратно. mdadm -a /dev/md10 /dev/sdf после обнаружения сбоя.
Теперь знаю, что нужно так:
1 mdadm --manage /dev/md10 --fail /dev/sdc 2 mdadm --manage /dev/md10 --remove /dev/sdc 3 Удаляем физически диск 4 Вставляем 5 Добавляем обратно mdadm -a /dev/md10 /dev/sdc
После подключения диска пропал sde, появился sdg.
Можно восстановить raid массив? Сейчас raid в таком состоянии:
mdadm --detail /dev/md10
mdadm --detail /dev/md10
/dev/md10:
Version : 1.2
Creation Time : Sat Apr 23 14:13:32 2016
Raid Level : raid10
Array Size : 1953262592 (1862.78 GiB 2000.14 GB)
Used Dev Size : 976631296 (931.39 GiB 1000.07 GB)
Raid Devices : 4
Total Devices : 4
Persistence : Superblock is persistent
Intent Bitmap : Internal
Update Time : Wed Jun 8 12:30:02 2016
State : clean, degraded
Active Devices : 2
Working Devices : 3
Failed Devices : 1
Spare Devices : 1
Layout : near=2
Chunk Size : 512K
Name : fs1.duschy.local:10 (local to host fs1.duschy.local)
UUID : 46b154b2:54a2cb4a:e64b8232:3d818945
Events : 45292
Number Major Minor RaidDevice State
0 0 0 0 removed
1 8 48 1 active sync set-B /dev/sdd
2 8 64 2 active sync set-A
3 8 80 3 spare rebuilding /dev/sdf
0 8 32 - faulty /dev/sdc
cat /proc/mdstat
md10 : active raid10 sdf[3] sde[2] sdd[1] sdc[0](F)
1953262592 blocks super 1.2 512K chunks 2 near-copies [4/2] [_UU_]
resync=DELAYED
bitmap: 9/15 pages [36KB], 65536KB chunk
ls -l /dev/sd*
[cut] brw-rw---- 1 root disk 8, 0 Jun 8 01:30 /dev/sda
brw-rw---- 1 root disk 8, 1 Jun 8 01:30 /dev/sda1
brw-rw---- 1 root disk 8, 2 Jun 8 01:30 /dev/sda2
brw-rw---- 1 root disk 8, 3 Jun 8 01:30 /dev/sda3
brw-rw---- 1 root disk 8, 4 Jun 8 01:30 /dev/sda4
brw-rw---- 1 root disk 8, 16 Jun 8 01:30 /dev/sdb
brw-rw---- 1 root disk 8, 17 Jun 8 01:30 /dev/sdb1
brw-rw---- 1 root disk 8, 18 Jun 8 01:30 /dev/sdb2
brw-rw---- 1 root disk 8, 19 Jun 8 01:30 /dev/sdb3
brw-rw---- 1 root disk 8, 20 Jun 8 01:30 /dev/sdb4
brw-rw---- 1 root disk 8, 32 May 26 01:30 /dev/sdc
brw-rw---- 1 root disk 8, 48 Jun 8 01:30 /dev/sdd
brw-rw---- 1 root disk 8, 80 Jun 8 01:30 /dev/sdf
brw-rw---- 1 root disk 8, 96 Jun 8 01:30 /dev/sdg
sda sdb это другой raid, 1 с ним всё ок.