LINUX.ORG.RU

Расширение raid массива

 , ,


0

3

Здравствуйте уважаемые. Имею домашний NAS сервер из старого железа и в нем программный raid 10 массив из четырех hdd дисков по 500Gb. Но буквально пару дней назад место закончилось и надо думать о расширении. Массив нужен с избыточностью и единственное что я смог придумать raid 1 из hdd 2Tb и связки из из четырех hdd по 500Gb объединенных в raid 0. Но что то я сомневаюсь насчет правильности данного решения. Будет ли это нормально работать или оставить эту идею и думать где же взять денег на два hdd и котроллер pci-e - sata, т.к. свободный разъем на мамке только один.


Ответ на: комментарий от anonymous

Возможно я не прав, но по-моему этот калькулятор сломан. Я выставил характеристики для своего рейда, и получил вероятность успешного ребилда 0%, на любых доступных настройках вероятности ошибок. Хотя в ходе тестирования я делал ребилд 4 раза. Учитывая, что у меня постоянно глючат и зависают любые компьютеры, я не верю, что с дисками мне настолько везёт.

Khnazile ★★★★★
()
Ответ на: комментарий от Dimez

еще раз: есть массив, который допустим даже неделю назад успешно прошел операцию проверки. есть SMART, в котором 0 пендингов (= неустойчиво читаемых секторов) и реаллокейтов. вопрос: какая вероятность что на блинах сразу двух дисков за эту неделю появились сектора с uncorrectable error?

можно порядок цифр хотя бы.

NiTr0 ★★★★★
()
Последнее исправление: NiTr0 (всего исправлений: 1)
Ответ на: комментарий от NiTr0

Ты уже забыл, с чего начался разговор… А начинался от калькулятора широко известной ситуации на raid5 вида:

один диск сдох, массив превратился в raid0, в момент после добавления нового диска и ресинка на него на одном из оставшихся дисков случился UER, raid-контроллер/mdadm тут же сказал «у меня лапки, восстанавливайтесь из бэкапа».

Dimez ★★★★★
()
Ответ на: комментарий от Khnazile

Мне тоже показалось, что там есть баги. Это был первый попавшийся калькулятор из гугла, но есть и другие. Да и методики расчёта этих вероятностей тоже много где расписаны и обсуждались, легко гуглится по «raid 5 rebuild failure probability» или даже просто «raid 5 is dead».

anonymous
()
Ответ на: комментарий от Khnazile

Я выставил характеристики для своего рейда, и получил вероятность успешного ребилда 0%, на любых доступных настройках вероятности ошибок.

Что у тебя за конфигурация такая?

Dimez ★★★★★
()
Ответ на: комментарий от anonymous

Куда интереснее было бы почитать как производители получают все эти UBER, MTTF, и пр., и в особенности как у них получаются такие круглые числа, да ещё зачастую одинаковые для устройств совершенно разных производителей и принадлежащих к разным ценовым категориям.

anonymous
()
Ответ на: комментарий от anonymous

У меня таких ссылок нет (как и вообще особого интереса к теме), но есть сильное ощущение, что активно используется вот эта классическая методика в сочетании с какой-то статистикой: https://en.m.wiktionary.org/wiki/pull_out_of_one%27s_ass

anonymous
()
Ответ на: комментарий от anonymous

Тут нет raid 1 и raid6, не сравнить. Интересно именно сравнение разных конфигураций.

Нашел еще такой калькулятор, он немного про другое, но тоже позволяет оценить вероятность проблем) Еще бы single disk варианты для наглядности.

https://wintelguy.com/raidmttdl.pl

Khnazile ★★★★★
()
Ответ на: комментарий от anonymous

Спасибо, но мне это мало о чём говорит. Я в своё время тоже интересовался расчётом надёжности рейдов, покак не пришёл к мысли об абсолютной бессмысленности данной процедуры ввиду сомнительной достоверности исходных данных. И да, если что, то я читал про все эти телкордии, мили, фидесы и прочие стандарты оценки надёжности, коих больше десятка, и чем больше я о них читал, тем сильнее крепло моё убеждение в «сферичности» предоставляемых производителями данных. Если почитать спецификации, то легко заметить, что в них фигурируют зачастую одни и те же цифры, и это при том, устройства принадлежат к разному классу, к разным ценовым категориям, изготовлены на разных производственных площадках с применением разной элементной базы. А показатель MTTF у них условно один и тот же – 2 млн. часов. Причём нередки случаи когда для бытовых моделей указываются более высокие показатели MTTF, чем для серверных. И ещё раз, откуда такие круглые числа? Почему 2000000, а не, скажем, 1995500 или 2387488? Даже если предположить что это некие пороговые значения, то во-первых, почему не указывается отклонение, а во-вторых, они всё равно у каждого производителя должны отличаться. Или взять пресловутый UBER. Нетрудно заметить что он тоже для всех стандартный: либо 10^15, либо 10^16, либо 10^17 (гораздо реже). Бывают и больше, но это уже исключения. Замечу что разница между этими значениями ровно в тысячу раз. Как так? Почему не (хотя бы) 10.2^16 или 9.8^16? Вобщем, как я это вижу: существует множество абстрактных моделей оценки надёжностей, которые учитывают бесчисленное число (и в различных пропорциях) таких же абстрактных показателей и в результате получаются те самые цифры что мы видим в брошюрах производителей. А натурные испытания если и проводятся, то их вклад в итоговый результат минимален.

anonymous
()
Ответ на: комментарий от anonymous

Это плохо. Зеркало должно монтироваться, если устройство отсутствует, но при этом не должно быть такой фигни, что если пользователь ошибся при вводе пароля, все сломалось и требуется ресинхронизация. По этому два luks на каждый диск это плохое решение.

Khnazile ★★★★★
()
Ответ на: комментарий от anonymous

Я в своё время тоже интересовался расчётом надёжности рейдов, покак не пришёл к мысли об абсолютной бессмысленности данной процедуры ввиду сомнительной достоверности исходных данных

Если тебе оказалось не совсем понятно то, что по ссылке, то примерный эквивалент в русском языке (ну, как мне кажется, потому что у меня с обоими не всё гладко) — «высасывать из пальца». При этом я думаю, что на статистику всё же смотрят, но в основном это всё равно извлечение чисел из нетрадиционных источников, немного инженерной интуиции и «квалифицированного технического писательства»©.

anonymous
()
Ответ на: комментарий от Khnazile

Зеркало должно монтироваться, если устройство отсутствует

Это всего лишь одна из точек зрения. Btrfs так больше не делает, и для меня лично такое поведение имеет смысл. Ну и оно монтируется, но после того, как администратор решит, что можно.

anonymous
()