LINUX.ORG.RU
ФорумAdmin

Помогите смонтировать mdadm RAID1 (version 1.2) раздел чтобы спасти данные

 , ,


0

2

Здравствуйте

Есть один Synology DS213+ с двумя дисками в RAID1, который внезапно выдал Volume Crash. И больше не видит файлы.

Вытащил первый диск, подключил к компу

Подскажите, пожалуйста, как вытащить данные из раздела sdc3

# mdadm --detail /dev/md2 
/dev/md2:
        Version : 1.2
     Raid Level : raid0
  Total Devices : 1
    Persistence : Superblock is persistent

          State : inactive

           Name : share:2
           UUID : a3b7337f:99685156:1c89df2a:34c3b6eb
         Events : 98

    Number   Major   Minor   RaidDevice

       -       8       35        -        /dev/sdc3
# fdisk -l
...
Disk /dev/sdc: 2,7 TiB, 3000592982016 bytes, 5860533168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: gpt
Disk identifier: 259668C5-8D08-4D17-A7B4-FF1BB83335F5

Device       Start        End    Sectors  Size Type
/dev/sdc1     2048    4982527    4980480  2,4G Linux RAID
/dev/sdc2  4982528    9176831    4194304    2G Linux RAID
/dev/sdc3  9437184 5860328351 5850891168  2,7T Linux RAID
★★★★★
Ответ на: комментарий от Radjah

Смущает. Через интерфейс Synology создавал зеркало. Не знаю как так вышло..

makoven ★★★★★
() автор топика
Ответ на: комментарий от Deleted

Второй на терабайт. Раньше стояли оба на терабайт. Один вышел из строя. Заменил его на трешку, после чего synology сам что-то начал синхронизировать и впоследствии написал что все норм. Размер тома так и остался терабайт

makoven ★★★★★
() автор топика
Последнее исправление: makoven (всего исправлений: 1)
Ответ на: комментарий от Deleted

Зашел по ssh на synology. Это инфа о втором диске

ash-4.3# mdadm --detail /dev/md0
/dev/md0:
        Version : 0.90
  Creation Time : Wed May 17 21:05:50 2017
     Raid Level : raid1
     Array Size : 2490176 (2.37 GiB 2.55 GB)
  Used Dev Size : 2490176 (2.37 GiB 2.55 GB)
   Raid Devices : 2
  Total Devices : 1
Preferred Minor : 0
    Persistence : Superblock is persistent

    Update Time : Thu Dec 14 13:43:36 2017
          State : clean, degraded
 Active Devices : 1
Working Devices : 1
 Failed Devices : 0
  Spare Devices : 0

           UUID : b61659e9:635d59c8:e8f7cd2c:fc4aa1f2
         Events : 0.98341

    Number   Major   Minor   RaidDevice State
       0       0        0        0      removed
       1       8       17        1      active sync   
/dev/sdb1



ash-4.3# mdadm --detail /dev/md1
/dev/md1:                                                                                                                                                
        Version : 0.90                                                                                                                                   
  Creation Time : Wed Dec 13 16:36:06 2017                                                                                                               
     Raid Level : raid1                                                                                                                                  
     Array Size : 2097088 (2048.28 MiB 2147.42 MB)
  Used Dev Size : 2097088 (2048.28 MiB 2147.42 MB)
   Raid Devices : 2
  Total Devices : 1
Preferred Minor : 1
    Persistence : Superblock is persistent

    Update Time : Thu Dec 14 13:31:17 2017
          State : clean, degraded
 Active Devices : 1
Working Devices : 1
 Failed Devices : 0
  Spare Devices : 0

           UUID : e1ab9b90:a5416e35:5ebd67b2:1c9d45b1 (local to host share)
         Events : 0.20

    Number   Major   Minor   RaidDevice State
       0       0        0        0      removed
       1       8       18        1      active sync   /dev/sdb2



ash-4.3# mdadm --detail /dev/md2
/dev/md2:
        Version : 1.2
  Creation Time : Wed May 17 21:26:50 2017
     Raid Level : raid1
     Array Size : 971940544 (926.91 GiB 995.27 GB)
  Used Dev Size : 971940544 (926.91 GiB 995.27 GB)
   Raid Devices : 2
  Total Devices : 1
    Persistence : Superblock is persistent

    Update Time : Thu Dec 14 08:09:45 2017
          State : clean, degraded
 Active Devices : 1
Working Devices : 1
 Failed Devices : 0
  Spare Devices : 0

           Name : share:2  (local to host share)
           UUID : a3b7337f:99685156:1c89df2a:34c3b6eb
         Events : 98

    Number   Major   Minor   RaidDevice State
       0       0        0        0      removed
       1       8       19        1      active sync   /dev/sdb3
ash-4.3# mdadm --detail /dev/md2

makoven ★★★★★
() автор топика
Последнее исправление: makoven (всего исправлений: 1)
Ответ на: комментарий от Deleted
ash-4.3# fdisk -l /dev/sdb
Disk /dev/sdb: 931.5 GiB, 1000204886016 bytes, 1953525168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: dos
Disk identifier: 0xdd638339

Device     Boot   Start        End    Sectors   Size Id Type
/dev/sdb1          2048    4982527    4980480   2.4G fd Linux raid autodetect
/dev/sdb2       4982528    9176831    4194304     2G fd Linux raid autodetect
/dev/sdb3       9437184 1953320351 1943883168 926.9G fd Linux raid autodetect
ash-4.3# 
makoven ★★★★★
() автор топика
Ответ на: комментарий от af5

root@work:/home/user# mdadm --assemble /dev/md2 /dev/sdc1 /dev/sdc2 /dev/sdc3 mdadm: no recogniseable superblock on /dev/sdc1 mdadm: /dev/sdc1 has no superblock - assembly aborted

Это на втором диске, который описан тут Помогите смонтировать mdadm RAID1 (version 1.2) раздел чтобы спасти данные (комментарий)

makoven ★★★★★
() автор топика
Ответ на: комментарий от Deleted

Если честно, я не знаю. Читаю md.txt. Пока что ничего не понятно

makoven ★★★★★
() автор топика
Ответ на: комментарий от Radjah
root@work:/home/user# mdadm --stop /dev/md2
mdadm: stopped /dev/md2
root@work:/home/user# mdadm --assemble --scan
mdadm: /dev/md/2 has been started with 1 drive (out of 2).
makoven ★★★★★
() автор топика
Ответ на: комментарий от Radjah

Попробовал смонтировать разделы как обычные ext4(3,2). sdc1 смонтировался. Остальные пишут.

root@work:/home/user# mount -t ext4 /dev/sdc3 sdc
mount: /home/user/sdc: wrong fs type, bad option, bad superblock on /dev/sdc3, missing codepage or helper program, or other error.
makoven ★★★★★
() автор топика
Ответ на: комментарий от makoven

Если я правильно понимаю, то на том терабайтном диске разделы идут 1-система, 2-своп, 3-данные.

А поверх md2 ничего не сделано типа jbod? Ну мало ли какую магию в прошивке NAS замутили.

Попробовал смонтировать разделы как обычные ext4(3,2). sdc1 смонтировался.

Размер ФС на md2 соответствует размеру массива?

Radjah ★★★★★
()
Ответ на: комментарий от Radjah

А поверх md2 ничего не сделано типа jbod?

Не знаю. Даже как узнать не знаю. Эту аббревиатуру впервые слышу

Размер ФС на md2 соответствует размеру массива?

А как посмотреть размер ФС на md2? Он не монтируется

root@work:/home/user# mount /dev/md2 sdc/
mount: /home/user/sdc: mount(2) system call failed: Structure needs cleaning.

makoven ★★★★★
() автор топика
Ответ на: комментарий от makoven

Эту аббревиатуру впервые слышу

JBOD - это такой массив, когда разделы встык соединяются. Ну типа как многотомный архив с томами разного размера. Архив один, а хранится в пачке файлов.

А как посмотреть размер ФС на md2?

По идее команда sudo tune2fs -l /dev/md2 должна показать инфу. «Block count» * «Block size» должно дать размер ФС.

Radjah ★★★★★
()
Ответ на: комментарий от Radjah

JBOD - это такой массив, когда разделы встык соединяются. Ну типа как многотомный архив с томами разного размера. Архив один, а хранится в пачке файлов

Первый раздел монтируется, остальные нет. Может ли это указывать на JBOD?

По идее команда sudo tune2fs -l /dev/md2 должна показать инфу. «Block count» * «Block size» должно дать размер ФС

Выходит

242985136 * 4096 / 1000**3

995.267117056 гигабайт

root@work:/home/user# tune2fs -l /dev/md2
tune2fs 1.43.5 (04-Aug-2017)
Filesystem volume name:   1.42.6-15101
Last mounted on:          /volume1
Filesystem UUID:          c88a6135-5d28-4935-a4f3-b27cb08a1d55
Filesystem magic number:  0xEF53
Filesystem revision #:    1 (dynamic)
Filesystem features:      has_journal ext_attr resize_inode filetype extent flex_bg sparse_super large_file huge_file uninit_bg dir_nlink extra_isize
Filesystem flags:         unsigned_directory_hash 
Default mount options:    user_xattr acl
Filesystem state:         clean with errors
Errors behavior:          Continue
Filesystem OS type:       Linux
Inode count:              60751872
Block count:              242985136
Reserved block count:     25600
Free blocks:              169771230
Free inodes:              60370766
First block:              0
Block size:               4096
Fragment size:            4096
Reserved GDT blocks:      966
Blocks per group:         32768
Fragments per group:      32768
Inodes per group:         8192
Inode blocks per group:   512
Flex block group size:    16
Filesystem created:       Wed May 17 21:26:51 2017
Last mount time:          Wed Dec 13 09:35:22 2017
Last write time:          Wed Dec 13 16:34:26 2017
Mount count:              23
Maximum mount count:      -1
Last checked:             Wed May 17 21:26:51 2017
Check interval:           0 (<none>)
Lifetime writes:          423 GB
Reserved blocks uid:      0 (user root)
Reserved blocks gid:      0 (group root)
First inode:              11
Inode size:               256
Required extra isize:     28
Desired extra isize:      28
Journal inode:            8
Default directory hash:   half_md4
Directory Hash Seed:      9722172c-4c4c-697d-5060-f7990e417a3d
Journal backup:           inode blocks
root@work:/home/user# 
makoven ★★★★★
() автор топика
Ответ на: комментарий от af5

Извини. Я не шарю просто в mdadm

makoven ★★★★★
() автор топика
Ответ на: комментарий от Deleted

Кажется был терабайт. Помню цифру 750 гиг, о это не точно. Возможно synology что-то откусил для своих нужд. Но точно не больше терабайта

makoven ★★★★★
() автор топика
Ответ на: комментарий от makoven

это ок.

«e2fsck /dev/md2» еще не делал? e2fsck как раз инвазивная процедура, которая может или все починить, или доламать окончательно :)

Deleted
()
Ответ на: комментарий от Deleted

Делал fsck.ext4 на sdc3. А оно кажись выполнило e2fsck. Или надо e2fsck на md2 делать?

root@work:/home/user# fsck.ext4  /dev/sdc3  
e2fsck 1.43.5 (04-Aug-2017)
ext2fs_open2: Bad magic number in super-block
fsck.ext4: Superblock invalid, trying backup blocks...
fsck.ext4: Bad magic number in super-block while trying to open /dev/sdc3

The superblock could not be read or does not describe a valid ext2/ext3/ext4
filesystem.  If the device is valid and it really contains an ext2/ext3/ext4
filesystem (and not swap or ufs or something else), then the superblock
is corrupt, and you might try running e2fsck with an alternate superblock:
    e2fsck -b 8193 <device>
 or
    e2fsck -b 32768 <device>
makoven ★★★★★
() автор топика
Последнее исправление: makoven (всего исправлений: 2)
Ответ на: комментарий от makoven

конечно надо делать на md2. Потому что sdc3 это устройство, где лежит md-структуры, а md2 - там уже лежат ext-структуры (ну понятно, как матрешка?)

Deleted
()
Ответ на: комментарий от Deleted

Еще в интернетах предлагают сделать mdadm --zero-superblock и монтировать sdc напрямую. Но следом идут истории о том, что это не помогло и всё сломало..

makoven ★★★★★
() автор топика
Ответ на: комментарий от Deleted

Об этом.

Мне не совсем понятно. Md2 это ведь типа «диск» как sdc? А e2fsck же вроде на разделах должен делаться? На каких-нибудь md2p3?

makoven ★★★★★
() автор топика
Ответ на: комментарий от makoven

md2 это блочное устройство, которое получается, когда система md (mdadm) собирает raid из дисков (или разделов в твоем случае). Т.е. условно говоря, sdc3+sdb3 = md2. Когда mdadm размечает диски (или разделы) под рейд, он на них пишет свои заголовки, т.е. буквально на sdc3 и на sdb3. В результате, md2 - это блочное устройство, а не «раздел», но на нем можно сделать файловую систему, как на разделе. Вот она там и была. Ext лежит на md2, md2 лежит на sdc3+sdb3, они в свою очередь лежат на sdc и на sdb (натурально, железные диски)

Deleted
()
Последнее исправление: Deleted (всего исправлений: 1)
Ответ на: комментарий от makoven

кромсать md2 на разделы нет смысла, ведь его размер и так уже был задан выбором размера sdb3 и sdc3, лишняя абстракция. Можно LVM натянуть на него, это даст не просто дополнительные разделы, а возможность менять их размер по мере надобности и такую фичу как снапшоты и online миграцию на другие диски

af5 ★★★★★
()
Ответ на: комментарий от Deleted

Ох уж эти слои абстракции. Спасибо за разъяснения

makoven ★★★★★
() автор топика
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.