LINUX.ORG.RU
ФорумAdmin

Как правильно настроить ZFS и избавиться от тормозов

 


1

3

Всем привет! Я долго сопротивлялся, думая что «и так сойдет», но момент настал. Я в целом рандомный эникейщик, но дёрнуло меня собрать сервер для знакомых видеомонтажников на убунте. Делал это всё я первый раз, ранее с linux дел не имел, но было интересно. Сервер на Xeon v4 камне, 20 ядер. вполне приличный, как мне кажется, камушек. 256ГБ ДДР4 памяти. И вот им нужен объем и чтобы быстро по 10G Ethernet тудой-сюдой собирать проект на TV. Файлы все в основном большого размера, ну как… камера мотор… стоп снято. несколько секунд-минут видоса. Внутри сервака стоят 8 по 16ТБ SAS хардов. подключены к SAS-контрольке(по-моему 6G), но в ней не было RAID-уровней кроме 0 и 1(или вообще только 1), поэтому диски пришлось инициализировать каждый по одному и потом в убунте из них создать ZFS-пул. Создано, чтение-запись. всё хорошо. для кэша я в ZFS поменял ARC 1 уровня до 200 гигов. и поставил 5 ssd самсунг pm893 960gb в l2arc. вышло почти 5тб. Их я объединил в программный рэйд0 и создал в пуле соответствующую запись. кэш Online, всё хорошо. Насколько оно попадает в тот или иной кэш мне неизвестно, потому что мне сходу было тяжело разобраться в записях и прочитать их осмысленно. но прирост скорости монтажники почувствовали, на этом я и успокоился. Чуть позже к серваку приросла дисковая полка на 24 диска по 16ТБ, полка SAS, диски все SAS, но и тут гладко не вышло. диски покупались в 2 захода. получилось что первая партия на 144тб с 4К форматом, а остальные без него(не смогли найти идентичных в продаже). LSI MR9286CV-8e отказался создавать всех в один raid6. в итоге вышло как вышло. 144тб и 208тб и в убунте объединены во второй ZFS пул. этот пул - долговременное хранилище. архив, можно сказать. с него читают чтобы выкачать по FTP через файлзиллу и в общем то всё. основной движ в офисе происходит с тех 8 дисков, что стоят напрямую в серваке.

С предысторией я закончил. теперь к сути: когда сервер работает довольно долго (ну, положим… 20 дней), то начинаются какие то сложности со скоростью доступа. Свежезагруженный убунт дает по 10г сети скорость чтения/записи порядка 800 МБ/с через встроенную в davinci resolve прогу-бенчмарк диска. и всем это нравится. монтируется афигенно быстро, сразу 2-3-4 машины используют этот сервак и короче счастье. А вот по прошествии какого то времени начинаются странные странности. то падает чтение, а запись норм. то наоборот. то перестают подгружаться данные в проект. он их видит, но в давинчи передавать отказывает и висит-висит… вчера вот не удалось монтировать монтаж на одной из машин. проект видно, данные по самбе читаются и записываются, с авторизацией проблемы нет, а монтаж просто прекращается не начавшись. проверили что монтаж работает локалФС - локалФС, и локалФС - сервер(но не в обратную сторону).

Короче, я решил спросить совета у тех кто съел собак на тему ZFS. Понятно, что там и сям какие то костыли, и вообще нужно бы всё переделать, поменять IBM serveraid m5110 на что-то с лицензией raid5 и вообще чтобы 12G было. но в момент сборки сервера это прям был мега-ограниченный бюджет, поэтому и собирал это тип(я), которому было по фану, а не спец, которому нужно было многоденег(наверняка). И вот теперь это некий ворох проблем, которые нужно планомерно порешать. С чего начать, где и какими командами изменять параметры ZFS пула для оптимального использования с большими файлами? или лучший вариант это ребут сервера по расписанию? (так вообще кто-то делает или это дичь?)



Последнее исправление: starghost1100 (всего исправлений: 2)

А вот по прошествии какого то времени начинаются странные странности. то падает чтение, а запись норм. то наоборот. то перестают подгружаться данные в проект. он их видит, но в давинчи передавать отказывает и висит-висит… вчера вот не удалось монтировать монтаж на одной из машин. проект видно, данные по самбе читаются и записываются, с авторизацией проблемы нет, а монтаж просто прекращается не начавшись. проверили что монтаж работает локалФС - локалФС, и локалФС - сервер(но не в обратную сторону).

А ты логи-то вообще смотрел? Ну хоть какие-нибудь.

hateyoufeel ★★★★★
()
Ответ на: комментарий от hateyoufeel

я не просто так написал, что мало что понимаю в логах и линуксе. мне в целом железо ближе. поэтому прошу помощи, в том числе с правильным чтением лог-файлов. если вам неприятно общество еще одного «пфф, неспециалист», то как бы… идём мимо. Если я ошибся, если есть желание помочь по существу - предлагайте, я напишу нужные команды, транслирую их сюда.

starghost1100
() автор топика

Надеюсь, они не знают, где ты живёшь. Потому что вся эта башня развалится и данные пропадут. На линуксе нет ZFS. Ты какие-то васянские порты накатил, которые могут отвалиться в любой момент.

ox55ff ★★★★★
()

Действовать по наитию примерно в сторону «вот так вроде работает, юзеры не жалуются» это сильно.

Раз вы это всё сделали при отсутствии понимания, то наверное была какая-то инструкция, поделитесь?
Так наверное станет чуть понятнее что и как в системе может быть сделано

Flotsky ★★
()
Ответ на: комментарий от ox55ff

Спасибо, очень ценное заявление. А гибель неминуема. васянское - это местный сленг? а по существу «есть чо»? дисковая полка дублируется еще одной дисковой полкой. она еще не введена в постоянную эксплуатацию, но она есть. мне нужно только разобраться с тем, как эффективнее в автомате дублировать данные с одного ZFS пула на то дисковое пространство. но это офтоп, в данном случае.

starghost1100
() автор топика
Ответ на: комментарий от Flotsky

я начал с «как установить линукс». и «какой дистрибутив лучше использовать» :) когда убунта была установлена, я стал гуглить о том, какая файловая система быстрее всего и лучше подойдет для моих задач. Так я наткнулся на ZFS и не долго думая прописал в терминале команду и установил ее поддержку, а затем и сам пул. Уж не знаю, верное ли это было решение, но история с кэшированием мне понравилась и то, что пул можно в случае чего мигрировать, когда будем переезжать в сервер по-новее. не понравилось, что обновление ядра (тут я не помню чего именно, убунты или ZFS) может всё убить(где то было так написано, за правдивость не ручаюсь). поэтому я ничего не обновляю, пока не вчитаюсь в суть. потом я мучался с самбой и портами. было тяжко, но что-то получилось и что-то работает. авторизованные пользователи читаю и пишут, а левые черти, которые вдруг пришли в гости и вай-фай подцепили, ничего не могут сделать в серваке(на их уровне понимания). так же я закрыл порты, чтобы рандомные переборщики портов не зашифровали мне к чертям все массивы. до этого в логах я видел что постоянно кто-то стучится и пытается подобрать пароль. на этом наверное всё )

starghost1100
() автор топика

То, что ты хочешь, стоит очень много денег. Не в смысле железа, а в смысле, что специалисты стоят денег и не сидят на форумах, а у тебя спцифическая нагрузка и специфические требования. Тебе стоило бы купить техподдержку какого-то вендора и задавать вопросы там.

Aceler ★★★★★
()
Ответ на: комментарий от Aceler

безусловно, вы правы. Но что мне мешает пытаться, спрашивать совета, учиться? про техподдержку вендора интересно. я поразмыслю. может это будет продуктивнее и с точки зрения скорости обучения тоже.(подскажете варианты?) я займусь этим. Но это потом, не сейчас. время у меня есть, и владелец сервера/массива с пониманием относится ко всему. раньше у него и этого не было, а сейчас огого, хоть и не без проблем. скорость работы монтажников выросла в разы, чем когда они рендерили на локальных машинах с хардов внешних(или даже внешних ссд), а потом таскали проект с одной машины на другую, потому что один спец смонтировал свою часть, другой другую.

starghost1100
() автор топика
Ответ на: комментарий от starghost1100

обновление ядра (тут я не помню чего именно, убунты или ZFS) может всё убить(где то было так написано, за правдивость не ручаюсь)

Правильно пишут. Потому что ZFS в линуксе нет. Это васянский (да, я опять использую это слово) порт безо всяких гарантий. Поэтому, если после обновления на новое ядро, в нём будет что-то несовместимое с ZFS, то всё развалится.

дисковая полка дублируется еще одной дисковой полкой

Какими средствами дублируется? Тем же ZFS? Тогда это не считается. За бекап должно отвечать отдельное независимое решение.

ox55ff ★★★★★
()
Ответ на: комментарий от ox55ff

Там полка на аппаратном рэйд6, без пула. просто массив, который создал тот же 9286CV-8e. на 352ТБ. я хочу чтобы нечто(rsync, возможно), дублировало файлы и изменения этих файлов в реалтайме. на случай если да, развалится зфс или помрет более двух дисков за раз на первой полке. да и в целом, если хоть один помрет, это ж уже надо рэйд восстанавливать. а так дубль будет и ок.

starghost1100
() автор топика
Ответ на: комментарий от starghost1100

Да ничего не мешает. Я в восхищении, как ты добрался от «как установить линукс» до сборки дисковй полки и репликации ZFS. Я просто хотел сказать, что на форуме вряд ли ты найдёшь свои ответы.

Объясню суть проблемы. Суть™ состоит в том, что серверные дисковые полки и серверные файловые системы затачивают под типичные серверные нагрузки. А типичной серверной нагрузкой является СУБД. Реже это какой-то прикладной софт на 100500 пользователей, включая http сервер, ну и хост виртуализации, на котором всё равно крутится типичная нагрузка.

То есть типичная нагрузка — это сотни тысяч TPS при маленьких объёмах транзакций, это одновремнный конкурентный доступ к диску десятками процессов.

Такое положение дел полностью противоречит нагрузке от станции монтажа. При монтаже от СХД требуется отдавть один-два файла со стабильной скоростью. Это просто противоположная задача.

Поэтому ситуацией, что ZFS на полке выдает норм скорость, но потом что-то идёт не так — совершенно не удивлён, там какие-то кеши закончились, например, и всё поехало, а записать широкий поток в системе, изначально рассчитанной на конкурентный параллельный доступ — сложно. При этом ещё и специалистов мало, потому что в большинстве датацентров, естественно, СУБД или многопользовательские приложения.

P.S. Лично моё мнение, что ZFS там вообще нафиг не упало, нужно делать RAID, поверх него XFS и бекап примерно на такое же. То есть максимально просто и топорно, плюс независимый бекап. Но фиг знает, какие там ещё подводные камни.

Aceler ★★★★★
()
Ответ на: комментарий от Aceler

да, спасибо за вашу оценку :) с раскладом и типичной/нетипичной нагрузкой мысль ясна. точнее Суть. Как мне показалось на момент создания, если не будет кэшей, то чтение с дисков напрямую при одновременной работе нескольких людей будет ощутимо ниже. оно и выходит так по факту. у меня некоторое время назад падал l2arc кэш. просто после перезагрузки он монтировался с новой точкой и отваливался от пула. потом перестал… сам. так вот когда он отваливался, все было максимально медленно и неработоспособно. значит эффективнее всего будет перезагрузка по расписанию, следуя этой логике и выводам, что кэшам плохо, сами они опустошиться не желают. а l2arc вроде как выгружается после ребута.

starghost1100
() автор топика

Во-первых раз это сервер-файлохранилище, то советую поставить подходящую прошивку. Например TrueNAS Core (именно Core, который на BSD основан, раз это не сервер для домашних экспериментов). А во-вторых почитать https://www.truenas.com/docs/references/l2arc/ - эффект от этого кэша может быть обратный, тут не так просто как «много кэша - быстрее работа».

manntes-live ★★★
()
Последнее исправление: manntes-live (всего исправлений: 1)

Начать стоит с мониторинга того, что происходит на сервере в то время когда воспроизводится проблема, так как из поста не следует явным образом что проблема именно в zfs. Может самба, может сеть, может накопители, может рейд-контроллер, может ссд непотриманы

cobold ★★★★★
()
Ответ на: комментарий от Aceler

Нагрузку я смотрел, никаких аномалий по цп, озу. А вот как правильно логи смотреть я пока не разбирался. Мне желательно прям что писать, хотя наверное если я загуглю journalctl , то мне там расскажут ))

starghost1100
() автор топика
Ответ на: комментарий от ox55ff

На линуксе нет ZFS. Ты какие-то васянские порты накатил, которые могут отвалиться в любой момент.

Ты чего несёшь? В ubuntu официально zfs уже много лет из-коробки.

Dimez ★★★★★
()
Ответ на: комментарий от vbcnthfkmnth123

Он так намекает что ZFS не в ядре, типа все что не приняли в ядро это васянство.

А я намекаю, что если он или ты такое намекаешь - то это приличного размера бред.

Dimez ★★★★★
()
Ответ на: комментарий от Dimez

Я заметил что люди называют васянством что не внесено в исходный продукт изначально. Независимо от качества. Например если какой-то модуль ядра, то он васянский, если его разрабатывают отдельно от ядра, как ZFS. Если есть плагины к какой-то программе, то они васянские, потому что сделаны не разработчиком программы собственно. Вы можете называть это бредом, но люди не перестанут это так называть.

vbcnthfkmnth123 ★★★★★
()

Во-первых, да, я присоединяюсь к восхищениям. Ты явно не рандомный эникейщик с головой «я туда ем», раз поднял такую балалайку. Есть проблемы в системном подходе, но это наживное.

Во-первых, какая версия ubuntu? zfs встроили в ubuntu начиная с 16.04. И «умолчательные» настройки zfs зависят от её версии.

Во-вторых, надо zfs list/zpool list/zpool status -v/zpool iostat -v и т.д.

И да, выше очень хорошо посоветовали. Если нет хороших знаний, как строить NAS под задачу на common-дистрибутиве - то лучше использовать freenas/nas4free (не помню, какой дистр сейчас из них нормальный, вроде второй) или openmediavault. Там хотя бы какой-никакой мониторинг и статистика, в которых можно примерно понять, где что затыкается, из коробки.

Ну и можно прийти и поспрашивать в специальной ветке форума https://forum.ixbt.com/topic.cgi?id=109:483, там очень много полезной информации.

Dimez ★★★★★
()
Ответ на: комментарий от vbcnthfkmnth123

Я заметил что люди называют васянством что не внесено в исходный продукт изначально.

Тезис из серии «я заметил, что люди садятся на унитаз лицом к бачку». И что? Всем равняться на них и садиться наоборот?

Dimez ★★★★★
()
Ответ на: комментарий от Dimez

И что?

И то. Это просто факт.

Всем равняться на них и садиться наоборот?

Делайте что хотите. Хотите равняйтесь, хотите не равняйтесь. Мне все равно, это ваше дело, а не мое.

vbcnthfkmnth123 ★★★★★
()
Ответ на: комментарий от starghost1100

Нагрузку я смотрел, никаких аномалий по цп, озу.

Ты смотрел нагрузку «общую» по серверу. А надо смотреть статистику массива zfs под нагрузкой (в т.ч. историческую, для этого поднять мониторинг), где там получилось бутылочное горлышко в твоей задаче.

Ты правильно тег поставил, люди придут, если свободны. @DALDON например.

Dimez ★★★★★
()
Ответ на: комментарий от Aceler

Да я внимательно читал. Один брякнул ерунду, второй зачем-то ушёл в обсуждение странных словоформ.

Ну я понимаю BLFS/LFS или Slackware, да, туда правильно и корректно впилить ZFS нужен ум и время. Но в бубунте ZFS из коробки с 2016 года (а для 14.04 был официальный ppa от Darik Horn, который и есть, собственно, zfsonlinux)

Dimez ★★★★★
()
Последнее исправление: Dimez (всего исправлений: 2)
Ответ на: комментарий от Dimez

Спасибо. Я в целом то не первый год в сфере(винда, макось, сборка пк(если надо, то на водичке и с трубками красивыми), настройка хакинтоша), просто до линукса не случалось добраться. Или точнее, я знал что «там дебри и я пока не готов». Про системный подход это в точку. В администрировании он нужен, а его нужно как то взращивать. Пока не вырос и все по наитию, пока интересно или когда долг превыше всего.

Далее. Убунта 22.04. Дело было в конце того года и по-моему она недавно релизнулась. Про NAS не понял. Это некий софт, который я смогу привязать к своим текущим массивам чтобы видеть больше статистики? Или это пересборка. Если второе, то мне некуда выгрузить 300тб временно )

starghost1100
() автор топика
Ответ на: комментарий от starghost1100

Убунта 22.04

Это хорошо, гораздо лучше, чем 16.04 :)

Про NAS не понял. Это некий софт, который я смогу привязать к своим текущим массивам чтобы видеть больше статистики?

Да. Это специализированные сборки linux/freebsd с уклоном на NAS. Если у тебя OS отдельно от дисков - то да, можно операционку менять, пулы аккуратно импортировать и подключать. Единственное что - ранее была некоторая несовместимость между linux и freebsd/solaris, но solaris ты врядли будешь использовать, а freebsd уже несколько лет как использует кодовую базу OpenZFS (== zfsonlinux).

Dimez ★★★★★
()
Ответ на: комментарий от Dimez

я пока ничего не смотрел. до сего дня при возникновении странностей применялся совет «семь бед - один ресет». как правило, помогало. у меня сейчас сервак ведет себя странно(я описывал выше текущие проблемы) и он пока не был перезагружен. поэтому принимаются советы с командами терминала, с указанием строк, куда усиленно смотреть :)

starghost1100
() автор топика

Не очень понятно, как именно построены массивы, поэтому ждём инфу, что запросил Dimez.
Но вообще, обычно рекомендуют переключать/перепрошивать контроллеры в HBA режим и прокидывать диски ZFS напрямую, создавая массивы именно её средствами.
Особенно непонятно про вот это

5 ssd самсунг pm893 960gb в l2arc. вышло почти 5тб. Их я объединил в программный рэйд0 и создал в пуле соответствующую запись.

NVME обычно не страйпят, потому что толку от этого почти нет, тем более на старом зионе.

параметры ZFS пула для оптимального использования с большими файлами

На хабре была статья о хостинге видео с ZFS. Там хорошие результаты дала recordsize в 1Mb.

GAMer ★★★★★
()
Ответ на: комментарий от Dimez

ну, гипотетически, я могу отключить один ссд с системой и воткнуть еще один с другой осью… но блин, там еще куча настроек, докер с давинчи сервером(а это основное, через что ребята работают и что связывает проект с нескольких машин. глобально ,с этого начался выбор ОС. на винду и макось это платный продукт от blackmagic, а на линукс я это нашел на гитхабе и завёл), прописанные порты в ufw и в этом… забыл как называется. и гребучая самба c правилами, которую я тоже долго настраивал (потому что первый раз). есть ли какие то процедуры миграции настроек между дистрибутивами?

starghost1100
() автор топика
Ответ на: комментарий от Dimez
zfs list
NAME               USED  AVAIL     REFER  MOUNTPOINT
RAID_BACKUP        260T  60.4T      260T  /RAID_BACKUP
ZFS_POOL           103T  13.6T      102T  /media/samba
ZFS_POOL/Trash    22.2M  13.6T     22.2M  /media/samba/Trash
ZFS_POOL/private   205M  13.6T      205M  /media/samba/private
ZFS_POOL/public    214G  13.6T      214G  /media/samba/public
zpool list
NAME          SIZE  ALLOC   FREE  CKPOINT  EXPANDSZ   FRAG    CAP  DEDUP    HEALTH  ALTROOT
RAID_BACKUP   320T   260T  60.5T        -         -     0%    81%  1.00x    ONLINE  -
ZFS_POOL      116T   103T  13.8T        -         -     1%    88%  1.00x    ONLINE  -
zpool status -v
  pool: RAID_BACKUP
 state: ONLINE
  scan: scrub repaired 0B in 4 days 05:16:22 with 0 errors on Thu Sep 12 05:40:23 2024
config:

	NAME         STATE     READ WRITE CKSUM
	RAID_BACKUP  ONLINE       0     0     0
	  sdi        ONLINE       0     0     0
	  sdj        ONLINE       0     0     0

errors: No known data errors

  pool: ZFS_POOL
 state: ONLINE
  scan: scrub repaired 0B in 19:43:19 with 0 errors on Sun Sep  8 20:07:27 2024
config:

	NAME        STATE     READ WRITE CKSUM
	ZFS_POOL    ONLINE       0     0     0
	  sda       ONLINE       0     0     0
	  sdb       ONLINE       0     0     0
	  sdc       ONLINE       0     0     0
	  sdd       ONLINE       0     0     0
	  sde       ONLINE       0     0     0
	  sdf       ONLINE       0     0     0
	  sdg       ONLINE       0     0     0
	  sdh       ONLINE       0     0     0
	cache
	  md0p1     ONLINE       0     0     0

errors: No known data errors
zpool iostat -v
               capacity     operations     bandwidth 
pool         alloc   free   read  write   read  write
-----------  -----  -----  -----  -----  -----  -----
RAID_BACKUP   260T  60.5T    312     27   177M  13.6M
  sdi         150T  38.7T    180     16   103M  8.06M
  sdj         109T  21.8T    131     11  74.5M  5.51M
-----------  -----  -----  -----  -----  -----  -----
ZFS_POOL      103T  13.8T     73     14  65.1M  1.63M
  sda        12.8T  1.72T      9      1  8.13M   213K
  sdb        12.8T  1.72T      9      1  8.13M   211K
  sdc        12.8T  1.72T      9      1  8.14M   204K
  sdd        12.8T  1.72T      9      1  8.13M   205K
  sde        12.8T  1.72T      9      1  8.13M   211K
  sdf        12.8T  1.72T      9      1  8.13M   208K
  sdg        12.8T  1.72T      9      1  8.13M   204K
  sdh        12.8T  1.72T      9      1  8.13M   211K
cache            -      -      -      -      -      -
  md0p1      4.23T   135G      8      9  1010K  1.17M
-----------  -----  -----  -----  -----  -----  -----
starghost1100
() автор топика
Ответ на: комментарий от GAMer

Выше этого сообщения всё что просил Dimez. pm893 это саташки. pm983 - nvme. путаница, да. с массивом, с которого происходит работа так и вышло, что каждый диск сам себе диск в убунте, а уже потом все восемь объединены в пул. а бэкапная полка, там важнее избыточность, чем скорость в пуле. в пул я объединил бэкап потому что сас-контролька отказалась два массива 4К+не4К харды объединять в один. Так бы стояли себе одним массивом, как будет стоять дублёр этого пула.

starghost1100
() автор топика
Ответ на: комментарий от starghost1100

там еще куча настроек, докер с давинчи сервером(а это основное, через что ребята работают и что связывает проект с нескольких машин. глобально ,с этого начался выбор ОС. на винду и макось это платный продукт от blackmagic, а на линукс я это нашел на гитхабе и завёл)

А, понятно. Да, операционки на freebsd отпадают однозначно.

Dimez ★★★★★
()
Ответ на: комментарий от GAMer

Но вообще, обычно рекомендуют переключать/перепрошивать контроллеры в HBA режим и прокидывать диски ZFS напрямую, создавая массивы именно её средствами.

подключены к SAS-контрольке(по-моему 6G), но в ней не было RAID-уровней кроме 0 и 1(или вообще только 1)

Кстати, да. Видимо, SAS-контроллер HBA, но в режиме IR, а надо в IT перешить/переключить.

Особенно непонятно про вот это

Да, не обратил внимания, из выхлопа команд увидел и обалдел :)

Dimez ★★★★★
()
Ответ на: комментарий от Dimez

да, так оно и было. mdadm, как пишут, не очень надежная штука. но l2arc кэш мне не жалко, если вдруг он упадет. через встроенные в мать функции мне почему то… то ли не смоглось, то ли… а, вспомнил. там 4 порта на SATA и еще 4 на… тоже сата, но контролька другая. 5 вместе дружить не хотят из под биоса.

Кстати, да. Видимо, SAS-контроллер HBA, но в режиме IR, а надо в IT перешить/переключить.

я тогда ничего лучше не придумал(про то что их как то можно шить я не знал. как не знал, что есть такие штуки как лицензии, которые как то внутрь устанавливаются программно и открывают новые фичи. и что такая же штука со коммутаторами бывает), а сейчас ломать этот рэйд уже наверное поздно. хотя эти 100 тб мне есть куда временно переложить. в новогодние праздники может получиться. там молотят на телек без остановки и выходных.. ужс просто. Но я тогда скорее поменяю контрольку на 12G. благо, с появлением сервера контора смогла заявить о себе как о «у нас сервер, у нас все крутобыстро и надежно» и заказы пошли повеселее. так что и возможности для апгрейда подросли.

starghost1100
() автор топика
Ответ на: комментарий от starghost1100

да, так оно и было. mdadm, как пишут, не очень надежная штука. но l2arc кэш мне не жалко, если вдруг он упадет. через встроенные в мать функции мне почему то… то ли не смоглось, то ли… а, вспомнил. там 4 порта на SATA и еще 4 на… тоже сата, но контролька другая. 5 вместе дружить не хотят из под биоса.

Но zpool add POOL_NAME cache ssd1 ssd2 ssd3 и так делает stripe cache из ssd1-3, без дополнительной прослойки в виде mdadm. Которая раз в неделю чекает этот массив по-умолчанию на выходных (вызывается из cron), ты же не отключил чек массивов, да?

Dimez ★★★★★
()
Последнее исправление: Dimez (всего исправлений: 1)
Ответ на: комментарий от Dimez

ты же не отключил чек массивов, да?

зачем бы мне его отключать? особенно когда не знаешь как. :) но смысл я понял. можно было не создавать мдадм, а просто подключить все пять ссд по отдельности и было бы тоже самое? разве что распределение кэша было бы… последовательное? или l2arc предусматривает такой ход как много кэширующих устройств и по умолчанию делает из них свой «raid0»? у меня в программном рэйде выходит скорость около 1800МБ/с через встроенный в дисковую утилиту бенч. а как затестить l2arc кэш я не нашел, чтобы сравнить его эффективность.

starghost1100
() автор топика
Ответ на: комментарий от starghost1100

а просто подключить все пять ссд по отдельности

Не совсем по отдельности )
Ты бы всё таки почитал, как ZFS работает, в частности про vdev.
Когда ты добавишь так диски, ZFS будет распределять между ними нагрузку, ты получишь практически raid0.

GAMer ★★★★★
()
Ответ на: комментарий от GAMer

Как будто бы стоит сделать. А с другой стороны «работает не трогай». есть ли обратная сторона mdadm, кроме его невысокой надежности? что я получу против имеющегося? про чек массивов, о котором упоминал Dimez я не понял. или понял, но не понял) он чекает массив ссд кэша или имелись ввиду массивы данных? если чек кэша, который mdadm, то наверное занятие бесполезное и на какое то время парализует кэш?

starghost1100
() автор топика
Ответ на: комментарий от starghost1100

зачем бы мне его отключать? особенно когда не знаешь как

Так может у тебя дисковая производительность падает как раз когда чек массива запускается? Смотри cat /proc/mdstat в момент тормозов. Хотя после перезагрузки он продолжается, а у тебя вроде всё хорошо. В общем - нужна статистика, которой у тебя нет.

а просто подключить все пять ссд по отдельности и было бы тоже самое? разве что распределение кэша было бы… последовательное?

Нет, не по отдельности, я же написал команду выше (хотя можешь как угодно, всё равно в результате будет то же самое). Кэширующие ssd будут использоваться одновременно все. И их можно отдавать прям целыми блочными устройствами, не разбивая их на партиции (как и, собственно, сами диски под данные)

Dimez ★★★★★
()
Последнее исправление: Dimez (всего исправлений: 1)