LINUX.ORG.RU
ФорумAdmin

soft-raid как прально...


0

0

У меня получилось сделать так: есть два дика на каждом по 4 раздела, в итоге удалось обьеденить каждый раздел в отдельный массив, то есть: md0: sda1 и sdb1 md1: sda2 и sdb2 md2: sda3 и sdb3 md3: sda4 и sdb4

То есть если я вдруг хочу добавить винт, то мне нужно каждый раздел отдельно добавлять. Нельзя ли сделать, чтоб sda-sdb были в raid (md0), а дилился уже на разделы весь этот массив??

И ещё... Не удалось обьеденить два swap раздела (тип 83) на разных дисках в raid, это вообще возможно?

Спасибо.

anonymous

> Нельзя ли сделать, чтоб sda-sdb были в raid (md0), а дилился уже на разделы весь этот массив??

Нельзя, поскольку MD-устройства не партиционируются. Если хочется так сделать, используй LVM:

md0=sda1/sdb1 на md0 и как /root

md1=sda2/sdb2 под раздел LVM и в нем нарезать тома

Кстати, тебя ждут проблемы - если ты, например, сделаешь md0=sda,sdb и md1=sdc,sdd и потом вытащищь sda, то ты попал:

sdb станет sda

sdc станет sdb

sdd станет sdc

Обходится с помощью devfs, других "красивых" решений не знаю :-)

> И ещё... Не удалось обьеденить два swap раздела (тип 83) на разных дисках в raid, это вообще возможно?

Должно быть возможно, если уж swap даже на loop подымается... Только надо сделать mkswap /dev/md*

no-dashi ★★★★★
()
Ответ на: комментарий от no-dashi

В том то и дело, что можно использовать партиции для md. Люди как то делают, но мне пока никак не получается добиться того же что у них получается, руки наверно кривые :)

Вот пример: http://www.miquels.cistron.nl/raid/

gfh ★★★
()
Ответ на: комментарий от gfh

> В том то и дело, что можно использовать партиции для md

Точно, это я поторопился :-) Действительно можно, до 63-х разделов на девайс, мажор 254, минор = { 64 * номер md-устройства + номер раздела }

Тогда порядок такой примерно должен быть:

# mdadm --create /dev/md/d0 --raid-devices=2 --level=1 /dev/sda /dev/sdb

# fdisk /dev/md/d0

...

# mknod /dev/md/d0p1 b 254 1

# mknod /dev/md/d0p2 b 254 2

.. для каждого из разделов для каждого из рейдовых девайсов ...

И напоследок сказать ядру при загрузке:

md0=d0,/dev/sda,/dev/sdb root=/dev/md/d0p1

no-dashi ★★★★★
()
Ответ на: комментарий от no-dashi

IMHO все-таки удобней разруливать дискспейс при помщи LVM, а физические тома для LVM предоставлять через md (т.е. скомбинировать обе методики), так оно погибче получается, т.е. положить root на /dev/md/d0p1, сделать pvcreate /dev/md0p2 и раздать его через lvcreate.

Получаем в результате гибкость + надежность

no-dashi ★★★★★
()
Ответ на: комментарий от no-dashi

>Получаем в результате гибкость + надежность

Так ты же сам писал:

>Кстати, тебя ждут проблемы - если ты, например, сделаешь md0=sda,sdb и md1=sdc,sdd и потом вытащищь sda, то ты попал:

anonymous
()
Ответ на: комментарий от anonymous

И ещё вопросик: Сколько герц soft-raid будет забирать от пня третьего для своей работы при интенсивной записи-чтении?

anonymous
()
Ответ на: комментарий от anonymous

> Сколько герц soft-raid будет забирать от пня третьего для своей работы при интенсивной записи-чтении?

Мало :-) Если это не RAID-5 конечно :-))

no-dashi ★★★★★
()
Ответ на: комментарий от anonymous

> Так ты же сам писал:

> > Кстати, тебя ждут проблемы - если ты, например,
> > сделаешь md0=sda,sdb и md1=sdc,sdd и потом вытащищь sda

Есть devfs, где можно указать порядок контроллеров и говорить /dev/scsi/host0/bus0/target0/lun0/part1 и /dev/scsi/host0/bus0/target1/lun0/part1 :-)

no-dashi ★★★★★
()
Ответ на: комментарий от no-dashi

А выигрыш в скорости при чтении массива получается если два HDD поместить на один шлейф и обьеденить их в массив???

anonymous
()
Ответ на: комментарий от anonymous

> А выигрыш в скорости при чтении массива получается если два HDD поместить на один шлейф и обьеденить их в массив?

Зависит от разновидности рэйда (linear? stripe? mirror?), типа чтения (последовательное? случайное?), шины (ide? scsi?), количества читающих (1? 3? 5? 100?), что читают (примерно одни и те же данные? разные? совсем разные?), сколько тех данных (метр? пять метров? 100гигов?), сколько в большинстве случае читают за операцию (килобайт? мегабайт?) и так далее. Скорее всего рэйд поможет - но чуда от него ждать не стоит.

А лучше всего взять железный контроллер, добить в него мозгов, повесить сказевых винтов в рэйд 0+1 и не мучаться - 100 метров в секунду он выдаст практически всегда, а может и больше :-)

no-dashi ★★★★★
()
Ответ на: комментарий от no-dashi

В смысле "не ждать чуда" означает, что на ide прирост от 20 до 100%, в завиисмости от условий. Заметней всего это будет если много народа часто читает небольшими блоками равномерно разбросанные по всему диску неупорядоченным образом данные (старая-престарая забитая "под завязку" файлопомойка с гигами порнухи, на которой никогда не делалась дефрагментация :-))

Для нормальных же условий прирост будет процентов этак около 30-40 (но опять же, это очень приблизительная оценка).

no-dashi ★★★★★
()
Ответ на: комментарий от no-dashi

Диски IDE. Я это к тому спрашивал, что стоит ли два IDE диска прицепить к secondary-шлейфу. Или чтоб почувтвовать скорость чтения при RAID1 (зеркало) необходимо, чтобы они на разных шлейфах были?

anonymous
()
Ответ на: комментарий от anonymous

Желательно на разных, но все равно это будет в основном зависить от программной реализации софтрейда.

gfh ★★★
()
Ответ на: комментарий от anonymous

> Или чтоб почувтвовать скорость чтения при RAID1 (зеркало) необходимо, чтобы они на разных шлейфах были?

Для IDE и RAID-1 ты почуствуешь разницу если у тебя на системе идут частые обращения к разным участкам диска - т.е. много операций seek() и они оперируют небольшими блоками (сервер с 1С-овской базой), в этом случае ты получишь весьма заметное ускорение.

Если же у тебя в основном последовательные чтения (типа сервер с киношками на 5 юзеров :-)) значимого прироста ты не получишь.

no-dashi ★★★★★
()
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.