LINUX.ORG.RU
ФорумAdmin

mdadm расширение объема

 


0

2

Перенес RAID1 с дисков по 640ГБ на диски по 1Тб средствами Clonezilla.
Массив как положено остался размером 640ГБ
Далее команда:

mdadm --grow /dev/md0 --size=max
никаких сообщений не возвращает и изменение массива не происходит
resize2fs /dev/md0
Выдает:
resize2fs 1.40.4 (31-Dec-2007)
The filesystem is already 151161584 blocks long.  Nothing to do!
Все действия выполнял в single mode с отмонтированным массивом.
Как расширить массив на весь диск?



Последнее исправление: IceTony (всего исправлений: 2)
Ответ на: комментарий от Radjah

Что то пошло не по плану) после:

fdisk /dev/sda
d sda2
n sda2
fdisk /dev/sdb
d sdb2
n sdb2
массив вообще исчез, теперь по новой его создавать через mdadm --create /dev/md0?
При создании массива с диска же данные сотрутся?

IceTony
() автор топика
Ответ на: комментарий от IceTony

статус какой у рейда?

cat /proc/mdstat
может просто стартовать его?
mdadm --start /dev/md0
предварительно проверь что с разделами
mdadm --examine /dev/sda2
mdadm --examine /dev/sdb2

fbiagent ★★★
()
Ответ на: комментарий от fbiagent
cat /proc/mdstat

в списке вообще не стало этого рейда...

mdadm --create /dev/md0 --level=1 --raid-disks=2 missing /dev/sda2
появился, все ок, добавил второй диск
mdadm --add /dev/md0 /dev/sdb2
синк пошел, теперь размер массива увеличился, я так понимаю --grow уже делать не нужно?
осталось только после синка выполнить
resize2fs /dev/md0

IceTony
() автор топика
Ответ на: комментарий от IceTony

Что то пошло не по плану) после:

Скорее всего, Вы забыли поменять тип разделов на fd (Linuх autoraid). Это команда t в fdisk. По умолчанию при создании нового раздела ему присваивается тип 83 (Linux).

Serge10 ★★★★★
()
Ответ на: комментарий от IceTony

mdadm --create /dev/md0

Не было у бабы забот, купила баба порося.

Зачем заново создавать? Собрать его с missing вместо одного диска.

Radjah ★★★★★
()
Ответ на: комментарий от Deleted

а ведь предлагался нормальный способ в предыдущем треде :)

Morin ★★★★★
()
Ответ на: комментарий от Radjah

я так и сделал, все норм, все получилось)

IceTony
() автор топика
23 февраля 2020 г.
Ответ на: комментарий от Radjah

Я тоже сейчас буду менять в массиве диски на большего объёма, с 3 на 4Тб. Пробежался по теме, не очень понял, какие действия мне делать, а какие нет. У меня gpt раздел на весь объём диска, новые диски будут на Тб больше. Нужно ли вручную копировать раздел как это сделал топикстартер? Ведь массив сам должен продублироваться на новый диск?

В противном случае придется подымать ещё один рейд рядом и просто копировать с rsync, но хотелось бы по уму прокачать скилл с raid.

hikikomori ★★★
()
Ответ на: комментарий от hikikomori

ИМХО как минимум придётся склонировать один диск, изменить размер GPT, изменить размер раздела, поднять массив с одним диском и добавить раздел со второго диска.

Я бы для начала на виртуалке проверил, чтобы потом не было мучительно больно.

Radjah ★★★★★
()
Ответ на: комментарий от hikikomori

размер раздела должен быть больше, чем размер зеркала

вот у тебя зеркало на двух дисках 3ТБ + 3ТБ, ты добавишь два диска по 4ТБ

3ТБ+3ТБ+4ТБ+4ТБ, но на новых дисках реально будет задействовано 3ТБ, когда ты удалишь диски по 3ТБ, у тебя будут два диска 4ТБ+4ТБ, но размер зеркала будет 3ТБ хотя диски (разделы по 4ТБ)

вот тогда и приходит время для mdadm –grow …

futurama ★★★★★
()
Ответ на: комментарий от Radjah

Нет ресурсов на виртуалки, у меня это выльется в пошаговую стратегию. Если не разберусь в теории, то придется городить лишний огород в железе.

hikikomori ★★★
()
Ответ на: комментарий от futurama

Это я логически понял, спасибо что подробно объяснили, и что никаких подводных камней и плясок с бубном?
А участие resize2fs тут не нужно?

Странно что не спросили, обычно в подобных темах сразу спрашивают: нет, lvm нет.

hikikomori ★★★
()
Ответ на: комментарий от futurama

Ну вот, я же говорил, это не полный список действий, что я ещё не знаю? начнёшь тележку толкать, как уже состав потянется.

hikikomori ★★★
()
Ответ на: комментарий от hikikomori

Ты спросил про рейд. Это одно, просто блочное устройство. Что на нем, lvm, разделы, фс, … неизвестно. Кроме того увеличение размера рейда завязано только на него самого. Увеличишь рейд, потом смотри кто следующий на увеличение.

futurama ★★★★★
()
Ответ на: комментарий от futurama

Кажется всё идёт по плану...
Единственное, что показалось сложным, это диллема первичности
mdadm --grow над resize2fs и что расширять, /md0 или /sdd1.

Опишу ход своих мыслей, вдруг кому потом пригодится.

Удалось логикой догадаться самому - у sdd1 и sdc1 размер изначально был 4Тб, малый размер был у зеркала с 3Тб, которое склонировалось на новый диск, следовательно менять размер надо у массива. И чтобы не делать пустую работу дважды, я занялся этим между первым копированием со старого рейда на один новый диск и заменой оставшегося старого на новый. Таким образом сейчас клонируется новый массив на 4Тб на второй новый 4Тб диск. Старые два диска полностью выведены из raid и физически отключены от системы.

sudo mdadm --grow /dev/md0 --size=max
mdadm: component size of /dev/md0 has been set to 3906884608K

sudo resize2fs /dev/md0                                                                             
resize2fs 1.45.5 (07-Jan-2020)                                                                                                                
Filesystem at /dev/md0 is mounted on /mnt/R'lyeh; on-line resizing required                                                                   
old_desc_blocks = 350, new_desc_blocks = 466                                                                                                  
The filesystem on /dev/md0 is now 976721152 (4k) blocks long.     

Я ограничился тем, что выключил на всё время миграции приложение хранящее файлы в массиве. Конечно надо было демонтировать массив, но на удивление в онлайне всё прошло быстро и и без проблем.

Но перед добавлением диска в массив приходится отключать самосмонтировавшийся диск:
sudo parted /dev/sdd unit s p free  # уточняю что sdd указан правильно.
sudo umount --verbose --all-targets /dev/sdd1


И завершающий шаг, добавляю в массив из одного диска его второго собрата wd red 4tb:
sudo mdadm --manage /dev/md0 --add /dev/sdd1
mdadm: added /dev/sdd1


Сейчас идёт recovery aka spare rebuilding. Продлится примерно 4-5 часов и всё. Кстати, старые диски TOSHIBA DT01ACA300 в процессе recovery на новый red сильно тормозили систему, а новые нет. Смотрю каталоги и запускаю файлы без задежки. Это или сильные ошибки убитых сервером тошиб, либо многопоточная магия wdred)

hikikomori ★★★
()
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.