LINUX.ORG.RU

NAS, ZFS, RAID и WD Green

 , , , ,


0

2

Хочу проапгрейдить storage у своего NAS (Nas4free, ZFS, Celeron 430, 4GB RAM).

Планирую прикупить 2 2х-терабайтных HDD, объединить их в raid под ZFS.

Хочу подэкономить и смотрю предложения по WD Green, которые оказались доступнее классического для NAS WD Red.

Вопрос - разумно ли использовать WD Green вместо Red под описанный юзкейс?

Второй вопрос - достаточно ли будет CPU/RAM для ZFS RAID или стоит задуматься также о их апгрейде?

★★★

Последнее исправление: dvrts (всего исправлений: 1)
Ответ на: комментарий от erzent

Текстово-числовая БД 1,3Тб, никогда такого не видел. Но если и есть такая БД, то и деньги там точно никто считать не должен на железо.

King_Carlo ★★★★★
()
Ответ на: комментарий от King_Carlo

у меня иногда было ощущение, что мы кэш с браузеров туда кладём.... а не статистику.

erzent ☆☆
()
Ответ на: комментарий от dvrts

боюсь что не стоит даже пробовать ZFS с ним?

Не слушай тех, кто говорит, что ZFS очень прожорлива, это неправда. Ей требуется несколько больше памяти, чем классическим ФС, но от процессора она хочет меньше, чем любимая здесь многими btrfs. Процессора должно хватить с сжатием lzo и lz4 (предпочтительно), памяти 4ГБ точно хватит, больше нужно если не нужно гонять виртуальные машины или могучие СУБД.

King_Carlo ★★★★★
()
Ответ на: комментарий от King_Carlo

Оптимистично, спасибо, прислушаюсь.

Ремарка насчёт btrfs - можно подробнее о потребности в процессоре? У меня btrfs на ноутбуке, хотел бы максимально уменьшить использование процессора в пользу автономности. Дело только в компрессии или сама ФС в принципе требудет больших ресурсов процессора?

dvrts ★★★
() автор топика
Ответ на: комментарий от dvrts

Дело только в компрессии или сама ФС в принципе требудет больших ресурсов процессора?

Дело не в компрессии, даже без сжатия скорость чтения-записи очень неровная, с фризами и пиками загрузки процессора, очень неприятная ФС. Что ты хочешь от альфа-версии?
ZFS работает очень ровно и предсказуемо.

King_Carlo ★★★★★
()
Последнее исправление: King_Carlo (всего исправлений: 1)
Ответ на: комментарий от dvrts

при /boot/efi,/boot-ext2,/-xfs,/var-xfs,/usr-xfs,/home-ext4 федора при старте потребляет 6% проца и 360 мб озу при 3 гноме, при /boot/efi,subvol root-120 gb,subvol home -1 тб система потребляет 4% проца и 310 мб озу, так что дистро проблемы у него были.

erzent ☆☆
()
Ответ на: комментарий от erzent

ну хз, zol кушает прилично от проца, от i5-4690k 5% стабильно, при просто примонтированной фс.

Просто примонтированная zfs не кушает ничего, 5% она может быть съест от одного ядра твоего i5 при записи на скорости гигабитной сети при включённом сжатии.

King_Carlo ★★★★★
()
Ответ на: комментарий от erzent

почему у меня в федоре и генте нет таких проблем с btrfs?

Не знаю почему у тебя нет таких проблем. У меня стенд с fedora 21 x64 на котором я btrfs тестирую в разных конфигурациях массивов. Пока это позор и ужас.

King_Carlo ★★★★★
()
Ответ на: комментарий от dvrts

Как ты понимаешь что это именно zvol?

Он вроде как не про zvol, а про zol (zfsonlinux).

King_Carlo ★★★★★
()
Ответ на: комментарий от King_Carlo

То есть если я например буду использовать вместо btrfs ext4, то я просто этим смогу снизить нагрузку на процессор -> увеличить время работы от батареи?

dvrts ★★★
() автор топика
Ответ на: комментарий от erzent

скинь пример как ты тестишь

mkfs.btrfs -m raid1 -d raid1 /dev/sdx /dev/sdy
mount -o compress=lzo /dev/sdx /mnt/btrfs-disk (раньше пробовал compress-force, но это вообще неюзабельно).
Затем кидаю на этот raid несколько ВМ, запускаю ВМ, внутри ВМ даже с обычным web-сервером наблюдаем периодически фризы при IO, на хосте при этом загрузка одного ядра 100% (немногопоточная?). Отклик никакой. Делаем тоже самое на lvm - всё быстро и ровно, на zfs ещё быстрее и ровно.

Вот ещё забыл, начинаем делать снапшоты, когда их много катастрофически начинает падать скорость чтения-записи, даже когда на массиве куча свободного места.

King_Carlo ★★★★★
()
Последнее исправление: King_Carlo (всего исправлений: 2)
Ответ на: комментарий от dvrts

То есть если я например буду использовать вместо btrfs ext4, то я просто этим смогу снизить нагрузку на процессор -> увеличить время работы от батареи?

Не знаю, надо пробовать.

King_Carlo ★★★★★
()
Ответ на: Оффтоп от GoNaX

Ужасы вполне реальны. За последние несколько лет участились случаи вылета дисков во время ребилдов. В остальных случаях zfs теряет функцию обеспечения целостности данных и после ребилда получишь часть мусора. Но это актуально для толстых десктоп дисков с высоким URE.

Lordwind ★★★★★
()
Ответ на: комментарий от erzent

больше 5 дисков в 5 рейде это тупость, всё что больше 4 дисков это 10 рейд

не совсем так, до 10 дисков это всего лишь рекомендация для построения raidz разного уровня или raid 5/6, выше всегда идет объединение в страйпы типа raid 50/60, потому что как всем в данной теме очевидно на большом количестве дисков сильно проседают иопсы

Lordwind ★★★★★
()
Ответ на: комментарий от Lordwind

потеря iops идёт и при больших размерах диска, например рейд 10 из 4 дисков по 1 тб и 4 дисках по 3-4 тб будут в реальности иметь разный iops, я уже молчу про то, что 4 тб диски вообще мало пригодны под веб например.

erzent ☆☆
()
Ответ на: комментарий от dvrts

был печальный опыт, тормозила база, смарт был норм, пришёл новый сервак, на этот раз чисто под базу, и с дисками по 1 тб, проблемы с тормозами решились сами собой. Да и мой новый напарник говорит, что диски свыше 3 тб гораздо медленнее чем аналогичные сасы но с 1-2 тб. А у него на прошлой работе было больше 100 железок с 1С....

erzent ☆☆
()
Ответ на: комментарий от erzent

Ну это уже махровое капитанство. Ясен пень что под базы, веб и ради иопсов берут sas (они и так небольшие) или ssd и подходит только рейд 10, все остальное будет тормозить. Фишка в том, что для таких задач бекапов делают достаточно и от массива требуется только отказоустойчивость, без оглядки на общую надежность.

А я думал мы тут больше перетираем за хранилища, домашние или не очень, где бекапиться будет часть инфы, а отказоустойчивость должна экономить нервы и время. Вот почему я предпочел отдать на избыточность 2 диска: если выйдет из строя или отвалится от рандома 1, у меня _останется_ избыточность и я спокойно отнесу винт в СЦ, смогу подождать замену или неспешно куплю/закажу новый в магазине. Даже рейд 10 имеет бОльшую вероятность развала после отказа второго диска (если количество зеркал соответствует избыточности raidz).

Lordwind ★★★★★
()
Ответ на: комментарий от erzent

посмотри ещё в сторону wd black, они куда лучше гринов.

Они куда дороже и гринов и даже редов.

И да, они действительно не предназначены для работы 24х7 в NAS, это скорее решение для тех, кто не может/не хочет SSD, а производительность нужна.

dvrts ★★★
() автор топика
Ответ на: комментарий от dvrts

wd black
24х7

уже под сотню регистраторов с ними установил, самым старым 3 года и ни одно отказа, при том что запись на них 24х7

vxzvxz ★★★
()
Ответ на: комментарий от erzent

а зачем твоему домашнему насу работать 24/7?Не проще запускать по pxe?

а) он должен работать 24/7 б) какой тогда вообще смысл в Black?

dvrts ★★★
() автор топика
Ответ на: комментарий от vxzvxz

Это очень хорошо, но как я указал выше - Black даже дороже Red.

dvrts ★★★
() автор топика
Ответ на: комментарий от dvrts

зачем?что у тебя дома за база данных на нём?я вот реально не понимаю этих 24/7 когда в реальности он будет использоваться раз в неделю.

erzent ☆☆
()
Ответ на: комментарий от erzent

Затем что я так хочу. В реальности мой существующий NAS используется каждый день, и запускать-стопать сервер на каждый чих совершенно нет желания.

dvrts ★★★
() автор топика
Ответ на: комментарий от erzent

зачем меня вызывал, когда Lordwind уже всё разжевал, и вообще, причём тут солярис?

EvgGad_303 ★★★★★
()
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.