LINUX.ORG.RU
ФорумAdmin

Centos7 Raid1 emergency mode в чем смысл

 


0

2

Собстве реч о сервере. Система поставлена на Raid 1. Разваливаю райд, вытаскиваю диск sda и система грузится в emergency mode. На FreeBSD система даже не заметит потери диска спокойно, штатно перезагрузится и будет продолжать работать в обычном режиме. Как добится такого же результата? Я так понимаю в emergency mode не будет даже ssh работать. так как там по минимому служб грузится. И доступ к серверу придется осуществлять через это как его ... ну вы поняли. К тому же будет простой пока не замечу.



Последнее исправление: luk911 (всего исправлений: 1)
Ответ на: комментарий от old_bastard

ну да, так и есть, а что для mdadm это обычное поведение ? Нельзя сделать так чтобы он грузился как обычно ?

luk911
() автор топика

Разваливаю райд

Какие именно действия под этим понимаются?

nbw ★★★
()

или не правильно изначально настроено, или особенность c7

на с6 при одном мертвом диске в рейде грузится нормально

anonymous
()

К тому же будет простой пока не замечу.

Ты правда не заметишь, что сервер не вернулся из ребута, в который ты сам его только что послал?
А вообще, для повышения безотказности hot spare drives придуманы.

thesis ★★★★★
()
Ответ на: комментарий от luk911

В убунте и дебиане давно в initrd-скриптах такое, что raid специально не стартует, если он в деградировавшем режиме. Видимо, это обновление скриптов и до RHEL добралось. Причина, насколько я понимаю, чтобы гарантировано заметили, что диск надо менять.

mky ★★★★★
()

Вообще ситуация странная. Я делаю на двух дисках три раздела /boot /swap / Разваливаю рейд, все грузится. Но диски большие, и пытаюсь сделать 5 разделов еще два для специфических задач, все в raid 1. Несколько раз с нуля ставил и при 5 разделах, разваливая рейд, получаю два в inactive один из них всегда swap и дополнительный раздел. И с этими inactiv все вываливается в эмердженси мод. Хотел уже попробовать debian, но тут пишут что там еще веселее.

luk911
() автор топика
Ответ на: комментарий от luk911

Я на тестовой машине сделал через Анаконду - все работает. Проверял так, убирал 1 диск, грузился со 2-го. Потом Подключал 1 диск, второй убирал.

Все работает. Видимо в Анаконду все прописали для обычного пользователя.

anonymous
()
Ответ на: комментарий от mky

mdadm вроде как умеет отсылку на имейл делать в случае деградации, так что причина врядли в этом.

luk911
() автор топика
Ответ на: комментарий от anonymous

при трех разделах каждый в рейде у меня тоже грузится, а вот больше разделов начинаются пляски.

luk911
() автор топика
Ответ на: комментарий от luk911

У меня два раздела бут и корень, и этого мне хватает. Раздел Свап - раньше тоже делал, но говорят он как собаке 5 нога.

anonymous
()

Странности продолжаются, решил попробовать Debian На этапе разбивки диска больше чем 4 партиции под рейд вообще не дает создать. У mdadm есть ограничения на колличество разделов ?

Поставьте тег: mdadm

luk911
() автор топика
Ответ на: комментарий от luk911

Может быть и не в этом. Вот здесь вот http://www.spinics.net/lists/linux-initramfs/msg03979.html ковыряли, что там неувязка в скриптах с таймаутом. Здравая идея, что если не все диски доступны, то нужно немого подождать, может он ещё раскрутится не успел, реализовалась криво и вместо таймаута происходит ошибка монтирования корневой ФС.

А вот дебиановсий багрепорт, что там тоже нет загрузки при вытащенном одном диске из RAID1: https://bugs.debian.org/cgi-bin/bugreport.cgi?bug=784070

mky ★★★★★
()
Ответ на: комментарий от mky

тесты на ссд делал, возможно он не дожидается, но грузится без одного винта в разы дольше, поэтому странно. Я вот думаю может целеком винты в рейд поставить и уже на мд создавать разделы ? многие не рекомендуют, говорят потом будут проблемы. И как это сделать толком не представляю.

luk911
() автор топика
Ответ на: комментарий от luk911

Ну raid1 параллелит запросы на чтение из разных потоков (процессов). Поэтому при параллельном запуске задач при двух винтах они в теории должны читать с обоих ssd дисков и запуск идти быстрее.

Винты целиков в raid объединяют, но сам так не делал, поэтому про возможные проблемы не скажу. Делают подобное, насколько я знаю, вручную — систему устанавливают как обычно, потом создают RAID на весь диск без разделов и переносят систему (копируют файлы). Но, насколько я понимаю, boot при этом должен быть на отдельном винте/флешке, BIOS ведь хочет видить раздел с флагом activ, или вобще отдельный UEFI-раздел.

mky ★★★★★
()

Проверил на Ubuntu - без проблем, любое колличество разделов на едином рейде, все грузится отлично.

CentOS в ящик.

luk911
() автор топика

Вообщем в шоке. На дебиане 8 попробовал повторить все тоже самое что и на юбунте и хрен там. https://bugs.debian.org/cgi-bin/bugreport.cgi?bug=784070

Вообщем если кому то нужен нормальный софтвер рейд который при перезагрузке поднимится, то из современных дистрибутивов подходит только ubuntu

С другими дистрами ставьте аппаратный рейд.

luk911
() автор топика

Все же удалось найти баг в CentOS если кто умеет напишите в баг трейс. Суть в том что в инсталере по непонятным причинам при создании раздела raid c точкой монтирования отличной от предусмотренных по умолчанию ( к примеру вы создаете раздел /data) данные этого нового раздела не вносятся в /etc/default/grub, то есть все разделы предусмотренные по умолчанию инсталлером типо /boot /home ... туда попадут, а наш с нашей точкой монтирования не попадет и это нужно сделать вручную после установки.

И так после установки смотрим uuid нашего раздела cat /etc/mdadm.conf

находим uuid разделов которые мы добавляли с собственными точками монтирования и записываем их.

далее vi /etc/default/grub и в секцию GRUB_CMDLINE_LINUX= добавляем наши диски анологично тому как там добавлены другие rd.md.uuid= юайди вашего раздела пробел и так далее сохраняемся

затем grub2-install /dev/sda grub2-install /dev/sdb grub2-mkconfig -o /boot/grub2/grub.cfg

вуаля, вытаскиваем диск и все грузится. Буду рад если кому то помог. Спасибо чуваку от сюда https://www.centos.org/forums/viewtopic.php?f=47&t=50893

luk911
() автор топика
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.