LINUX.ORG.RU
решено ФорумAdmin

Raid0 + LVM + XFS разметка диска и прочее

 , , ,


1

1

Дано: 2 SSD 250Gb 2 HDD 3T CentOS 7

Крутится будет полный зоопарк. Мускл Постгрес веб сервер и до кучи докер со своим зоопарком. Хочется выжать максимум.

По поводу ненадежности Raid0 прошу не пугать, в курсе. Надежность будет решаться с помощью бэкапов.

Общая схема: Хочу поставить 2 SSD в софтвер Raid0 и отдельно два HDD в софтвер Raid0 mdadm. Система на SSD, бекапы на HDD, туда же логи и не критичную статику. Статики много, но она вся не критичная.

Собственно почитал про LVM и не понял, можно ли сделать из него страйп для скорости? LVM планирую использовать именно для бекапов поверх рейда.

Вопросы: 1) Оптимально ли использовать LVM для бекапов, интересуют инкрементные. 2) Можно ли заменить Raid0 на LVM именно для скорости? 3) Файловая система. В целом выбор между XFS и ext4 Почитал тесты для раздела с MySQL вроде лучше XFS для PostgreSQL ext4 для системы / я так понимаю лучше ext4? Для бут раздела ext4 c отключенным журналом ?

Еще нашел такие рекомендации ## - '/boot' cannot be on a xfs filesystem! ## - '/boot' cannot be on LVM! ## - when using software RAID 0, you need a '/boot' partition

Может что посоветуете?



Последнее исправление: luk911 (всего исправлений: 3)

Ответ на: комментарий от maloi

Возьми и прочти свое самое первое сообщение в теме. Какого черта ты пишешь RAID, когда сравнивается конфигурация LVM не LVM?

andrew667 ★★★★★
()
Ответ на: комментарий от andrew667

ты так и не ответил

получается ты лгун

anonymous
()
Ответ на: комментарий от anonymous

Заканчиваем срач, давайте больше конструктива.

luk911
() автор топика
Ответ на: комментарий от anonymous

а так это андрюшка разлогинился

я то думаю чего голову в песок зарыл и типа не видит, а тут вонанакак

anonymous
()
Ответ на: комментарий от vxzvxz

Спасибо, на фри куда не шло, на линуксе пока воздержусь. Сам на фри на zfs два года. Но понадобился докер ... Вообщем есть может какое то рабочее решение на линуксе без LVM btrfs и zfs ?

luk911
() автор топика
Ответ на: комментарий от anonymous

одного порядка показатели и это 2009 год

У тебя есть такая проблема, что дерьмо прилипает к шерсти?

anonymous
()
Ответ на: комментарий от andrew667

Начал эксперементы в виртуалке. Графический инсталятор centOS порадовал практически все можно сделать из него. Задумался вот над чем. Каталог /var можно в raid0 поставить ? обычно там логи кеши письма, вроде ничего такого существенного. При этом www и база данных будут в других папках. Если рассыпится один диск и потеряется var Система загрузится ? просто логи и кеши не логично на рейд1 писать.

luk911
() автор топика
Ответ на: комментарий от luk911

Если рассыпится один диск и потеряется var Система загрузится ? просто логи и кеши не логично на рейд1 писать.

Про cent os точно не скажу, но вообще должна, только с матом. Ну и потом в любом случае надо будет из бэкапа этот раздел восстановить, для нормальной работы.
У меня на слаке такое было, именно раздел с var посыпался, сервер был не близко да еще и почтовик, пришлось временно использовать корень (/) для var (благо места хватало) скопировав копию из бэкапа где-то годовалой давности. Нормально все взлетело.

anc ★★★★★
()
Последнее исправление: anc (всего исправлений: 1)
Ответ на: комментарий от luk911

у меня нет виртуальных машин, qcow2 вроде для них ?

Пардон, все смешалось в доме Облонских.

anonymous
()
Ответ на: комментарий от luk911

BSD с zfs экспортирует диски (zvol) по iscsi (iscsi target)

Клиент (iscsi initiator) получает LUN'ы и использует их.

Делаешь из BSD с zfs простой СХД

anonymous
()
Ответ на: комментарий от luk911

Каталог /var можно в raid0 поставить

Нет

anonymous
()
Ответ на: комментарий от anonymous

Специализируешься по вылизыванию, андрюшка?

anonymous
()
Ответ на: комментарий от andrew667

Аноним не уточнял, какого именно сравнения он хотел, зато в твоем сообщении, на которое он отвечал - явно сравнивается raid0 и lvm. Я конечно понимаю, что это один из любимых приемов демагогов - менять тему обсуждения на ходу, но он от этого не становится более красивым.

maloi ★★★★★
()
Ответ на: комментарий от anc

да, спасибо, проверил. Отключил один диск, система подтупила немного, но в емердженси моде загрузилась, var сама какой то соорудила. Надо мускл поставить (данные в другую папку кинуть) и повторить експеремент. Я так понимаю в var lib какие то запчасти могут лежать и мускл не поднимется, но проверю отпишусь. Спасибо.

luk911
() автор топика

Хочется выжать максимум.

Raid0 + LVM + XFS годная связка. я бы систему на отдельный винт кинул, а рабочие данные на быстрый рейд

axelroot
()
Ответ на: комментарий от andrew667

SSD не размечай более, чем на 80% для продления ресурса

Не держать всё время забитым имеет смысл, но не размечать-то зачем?

anonymous
()
Ответ на: комментарий от axelroot

Что-то я весь инет перекопал а годной инструкции не найду никак как сконфигурировать raid0 правильно чтобы при вынимании одного винта система грузилась. На виртуалке пока не получается, ставил через граф интерфейс объединял и бут в том числе в мирор. Один фиг вынимаю один винт - черный экран.

Может кто подскажет годную инструкци по CentOS 7 команд лайн вариант ?

luk911
() автор топика
Ответ на: комментарий от luk911

не найду никак как сконфигурировать raid0 правильно чтобы при вынимании одного винта система грузилась.

raid0 не имеет избыточности, как ты хочешь вынуть диск и продолжить работу?

anonymous
()
Ответ на: комментарий от anonymous

блин опечатался, raid1 ну стандартный вроде бы случай, но как grub 2 правильно скофигурировать на обоих дисках не могу найти.

luk911
() автор топика
Ответ на: комментарий от targitaj

1 конечно. Задача вроде бы банальна - зеркало. при выходе из строя одного диска, чтобы автоматом грузился со второго диска.

схема такая раздел /boot ставим на оба диска (смысла в мирор его ставить нету) / в raid1 grub 2 соответственно надо поставить на оба диска, но чтобы грузил именно с того диска на котором он и стоит.

luk911
() автор топика
Ответ на: комментарий от luk911

raid0 правильно чтобы при вынимании одного винта система грузилась.

за каким хером систему на массив ставить? быстрый рейд ставь только под данные. Если ты из нулевки вынимаешь диск, то автоматически получаешь кашу, ноль это только скорость и все, у нуля часть блока данных пишется на один диск, часть на другой за счет этого все быстро, вынув диск ты разрушаешь все данные.

axelroot
()
Ответ на: комментарий от luk911

Под систему рейд 1

я под систему софтварные массивы не юзаю, если сервер так важен, то там железный воткнут, если сервер в кластере или возможно его остановка на несколько минут то ОС ставится на обычный винт, с помощью dump ОС можно вернуть к жизни за 5 минут на новом харде(ценность самой ОС нулевая), а вот все важные и рабочие данные те да на массивах лежат на десяторейдах, нулевый рейд использовался раньше под высоконагруженную БД

axelroot
()
Ответ на: комментарий от axelroot

если сервер в кластере или возможно его остановка на несколько минут то ОС ставится на обычный винт, с помощью dump ОС можно вернуть к жизни за 5 минут на новом харде(ценность самой ОС нулевая)

ты свои дилетанские замашки другим не прививай, тебе уже не раз говорили, что этого 5м простоя можно избежать всего лишь загнав систему на зеркало и не обязательно железно.

anonymous
()
Ответ на: комментарий от anonymous

всему свое место, там где простои возможен не нужны рейды и затраты на харды не обоснованы. в 90% случаев системе на зеркале нечего делать.

axelroot
()
Последнее исправление: axelroot (всего исправлений: 1)
Ответ на: комментарий от axelroot

в 90% случаев системе на зеркале нечего делать.

на локалхосте конечно, но у меня как-то в 90%+ именно есть что делать.

EvgGad_303 ★★★★★
()
Ответ на: комментарий от EvgGad_303

но у меня как-то в 90%

и что ты хочешь сказать, ты в важные сервера софтварные рейды суешь под ОС? очень сомневаюсь. У меня например на узлах кластера шлюзов нет зеркал под ОС, обеспечить устойчивость кластера на уровне выпадения нод или узлов гораздо важнее чем устойчивость к такому частному случаю как выпадение диска, ведь в машинке полно других составляющих которые могут накрыться в любой момент и их не задублируешь. А уж на серваках с виртуалками где крутятся все основные сервисы да всегда стоит железный рейд под системой.

axelroot
()
Ответ на: комментарий от EvgGad_303

еще раз повторяю

где простои возможен не нужны рейды и затраты на харды не обоснованы

и занятость админа здесь не причем.

axelroot
()
Ответ на: комментарий от axelroot

ты в важные сервера софтварные рейды суешь под ОС?

да, svm и zfs это не mdadm, который то работает, то не очень.

У меня например на узлах кластера шлюзов нет зеркал под ОС, обеспечить устойчивость кластера на уровне выпадения нод или узлов гораздо важнее чем устойчивость к такому частному случаю как выпадение диска

ещё раз - одно другому не мешает, а только дополняет. ты знаешь что такое five nines, six nines? так вот с 99,9999 и 5 минут простоя не пройдёт, а тебя уже погонят ссаными тряпками прочь.

ведь в машинке полно других составляющих которые могут накрыться в любой момент и их не задублируешь

это только в этих ваших мерзких x86 так. хотя в приличных сервантах на х86 ras тоже более-менее на уровне.

и занятость админа здесь не причем.

лол, я не про занятость, а твои 90% случаев.

EvgGad_303 ★★★★★
()
Последнее исправление: EvgGad_303 (всего исправлений: 1)
Ответ на: комментарий от EvgGad_303

mdadm, который то работает, то не очень.

здесь соглашусь

с 99,9999 и 5 минут простоя не пройдёт, а тебя уже погонят ссаными тряпками прочь.

а с этим нет.

axelroot
()
Ответ на: комментарий от axelroot

с 99,9999 и 5 минут простоя не пройдёт, а тебя уже погонят ссаными тряпками прочь.

а с этим нет.

и правильно, потому что погонят тебя уже через 30 секунд. Образно, конечно, но смысл именно в том, что при sla в 99,999 у тебя 5 минут и 26 секунд в год на факапы, а при 99,9999 аж целых 31,5 секунд.

EvgGad_303 ★★★★★
()
Ответ на: комментарий от EvgGad_303

потому что погонят тебя уже через 30 секунд.

бывает что ноды и по две недели лежат в мертвом состоянии, за последние лет 10 никто этого не замечал и претензии небыло.

axelroot
()
Ответ на: комментарий от axelroot

бывает что ноды и по две недели лежат в мертвом состоянии, за последние лет 10 никто этого не замечал и претензии небыло.

прохладная история. а переключение нод тоже занимает время, ага.

EvgGad_303 ★★★★★
()
Ответ на: комментарий от axelroot

zfs

mdadm, который то работает, то не очень.

здесь соглашусь

Полизать друг другу не преминули. Вы близки?

anonymous
()
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.