LINUX.ORG.RU
ФорумAdmin

zfs не задействовать l2ARC на «больших» файлах

 , ,


0

1

Большие файлы на файлопомойках обычно используются редко, многие (всякие бэкапы с других серверов) только по одному разу за жизнь записываются и прочитываются. Тратить на них ресурс SSD, отведенного под l2ARC, бессмысленно. Можно ли настроить l2ARC (ARC), чтобы он не использовался при работе с файлами больше определённого объёма? Или же это невозможно, например, потому что ARC не знает о существовании файлов, а работает с «блоками»? Задействуется ли l2ARC при создании снепшотов?

Тратить на них ресурс SSD, отведенного под l2ARC, бессмысленно.

Твой SSD может выдержать куда больше, не парься.

Можно ли настроить l2ARC (ARC), чтобы он не использовался при работе с файлами больше определённого объёма?

Нет. Но ты можешь настроить максимальную скорость записи в L2ARC, если так боишься за ресурс.

Задействуется ли l2ARC при создании снепшотов?

Снапшоты к L2ARC не имееют отношения. В ZFS снапшот – это просто запись, отделяющая предыдущие блоки от новых и не дающая старым блокам быть удалёнными при чистке.

hateyoufeel ★★★★★
()
Последнее исправление: hateyoufeel (всего исправлений: 1)

Большие файлы на файлопомойках обычно используются редко

Посмотри статистику l2arc, я у себя смотрел, как правило: 10-20%. Там, где она ниже 30% попаданий, я попросту его отключил. - Никаких падений производительности не заметил. - А освободившуюся память, которая требуется для адресации l2arc, я отдал под arc. На файло-помойке, в l2arc, смысл, полагаю: ноль.

DALDON ★★★★★
()
Последнее исправление: DALDON (всего исправлений: 1)
Ответ на: комментарий от hateyoufeel

Твой SSD может выдержать куда больше, не парься.

Такое невозможно утверждать не зная подробностей.

М.б. меня подводит память (не записал), о потраченном ресурсе SSD перед включением в пул (не новый), но получается 30 ТБ за 3 месяца. При этом всего занято 1,2 ТБ, из которых примерно 0,8 - бэкапы и записи вебинаров, а из оставшегося 80% неиспользуемое старьё.

За последние сутки - 15 ГБ. Это мелочи. Скорее всего подводит память. Будем наблюдать

VoroninIvan
() автор топика
Ответ на: комментарий от VoroninIvan

Ну вот и я так же думаю. При том, в старых версиях zfs on linux, от l2arc, были такие проблемы в некоторых ситуациях, что не дай бог. ARC - надо опять же смотреть процент попаданий. Очень может статься, что оно там и не 100% на бекапном сервере. И больше 10 гигов и он на фиг не нужен.

DALDON ★★★★★
()