LINUX.ORG.RU

Линус Торвальдс высказался о ZFS

 , ,


4

5

В процессе обсуждения планировщиков ядра Linux пользователь Джонатан Данти пожаловался, что изменения в ядре сломали важный сторонний модуль — ZFS. Вот что написал в ответ Торвальдс:

Имейте в виду, что тезис «мы не ломаем пользователей» относится к программам пространства пользователя и к ядру, которое я сопровождаю. Если вы добавляете сторонний модуль вроде ZFS, то вы сами по себе. У меня нет возможности поддерживать такие модули, и я не отвечаю за их поддержку.

И, откровенно говоря, я не увижу ни одного шанса на включение ZFS в ядро, пока не получу официальное сообщение от Oracle, заверенное их главным юрисконсультом или, лучше всего, самим Ларри Эллисоном, в котором говорится, что всё ок, и ZFS теперь под GPL.

Некоторые думают, что добавить код ZFS к ядру — неплохая идея, и что интерфейс модуля нормально с этим справляется. Что ж, это их мнение. Я же не чувствую такое решение надёжным, учитывая спорную репутацию Oracle и проблемы, связанные с лицензированием.

Поэтому мне абсолютно неинтересны штуки вроде «слоёв совместимости ZFS», которые, как некоторые думают, изолируют Linux и ZFS друг от друга. Нам от этих слоёв никакой пользы, а учитывая склонность Oracle судиться из-за использования их интерфейсов — я не думаю, что это реально решает проблемы с лицензиями.

Не используйте ZFS. Вот и всё. По-моему, ZFS это больше баззворд, чем что-то ещё. Проблемы с лицензированием — только ещё одна причина, почему я никогда не стану заниматься этой ФС.

Все бенчмарки производительности ZFS, что я видел, совершенно не впечатляют. И, как я понимаю, ZFS уже даже толком не сопровождается, и никакой долгосрочной стабильностью здесь не пахнет. Зачем вообще её использовать?

>>> Подробности

Deleted

Проверено: a1batross ()
Последнее исправление: Deleted (всего исправлений: 1)
Ответ на: комментарий от mv

что с a_buchinskiy случилось под конец треда? анонимы развели его на говно (и модеры радостно забанили) или он сам не выдержал, выложил пароль и попросил его заблокировать?

crypt ★★★★★
()
Ответ на: комментарий от intelfx

что с a_buchinskiy случилось под конец треда? анонимы развели его на говно (и модеры радостно забанили) или он сам не выдержал, выложил пароль и попросил его заблокировать?

crypt ★★★★★
()
Последнее исправление: crypt (всего исправлений: 1)
Ответ на: комментарий от Deleted

Он ещё вернётся под другим ником, а то и не под одним (как было уже 100500 раз), шиза не даст покоя.

Deleted
()
Ответ на: комментарий от crypt

что с a_buchinskiy случилось под конец треда? анонимы развели его на говно (и модеры радостно забанили) или он сам не выдержал, выложил пароль и попросил его заблокировать?

Его провода оказались слишком длинными…

mv ★★★★★
()
Ответ на: комментарий от Deleted

оно даже в зародышевом состоянии почти всегда быстрее, чем ZFS

нихрена не умеет, но делает это очень быстро

dummy ★★
()
Ответ на: комментарий от hobbit

у меня всегда проблема с этим сериалом была. и сейчас то же. полчаса назад смотрел несколько сборок («самые смешные моменты»). сосредоточенно и очень внимательно. не смешно. совсем. все «про войну», то есть поправде. :)

crypt ★★★★★
()
Ответ на: комментарий от crypt

На мой взгляд, этот момент — лучший.

Соперничать с ним может только фантазия на тему кота Шрёдингера в финале 1 сезона. :) (Но там любовь-морковь, не всем понравится.)

hobbit ★★★★★
()
Последнее исправление: hobbit (всего исправлений: 1)
Ответ на: комментарий от LongLiveUbuntu

Так сказано же уже не один раз, что нужность сабжа на онтопике весьма сомнительна

sehellion ★★★★★
()
Ответ на: комментарий от anonymous

Потому что денег хочется а торговать нечем. А потом на вопросы пользователей «у меня две базы на апплаенсе а оно тормозит хуже андроида» в ответ тишина

Nastishka ★★★★★
()
Ответ на: комментарий от anonymous

В новое место пишется вообще всё и всегда. Просто без снапшота оно сразу помечается свободным и может заиспользовано снова для следующих записей. К плохому - к тому что последовательные операции которые могли делаться в одно чтение делаются в несколько. Это не особо заметно на ссд но на хдд очень даже. Можете посмотреть spec sfs где на большой параллельности all flash zfs сливает хдд

Nastishka ★★★★★
()
Ответ на: комментарий от sky92

Вот простой эксперемент можно провести : собираем sdb sdc в raid1

Собирай в raid-5/6, в нём сами данные равносильны контрольной сумме.

mv ★★★★★
()
Ответ на: комментарий от mv

В zfs raid1 уже делает это. Зачем мне юзать 3 диска, когда можно 2? Ладно, raid5 мне больше по душе если честно, но в zfs есть доработанный raid5 : raidz. Динамический размер старйпа, отсутствие частичных записей страйпов,пустые блоки не копируются(!!), ключсуммы вместо xor, защищает не просто от отказов диска, а обнаруживает отказы отдельных блоков на диске(что весьма полезно при когда диск начинает умирать, а smart говорит что всё норм).

Есть еще raidz2 и raidz3 которые выдерживают смерть 2 и 3 дисков, но их не юзал.

sky92
()
Последнее исправление: sky92 (всего исправлений: 1)
Ответ на: комментарий от sky92

Это как? Снепшот не сделается пока не произойдет sync()

Sync гарантирует только, что из кэша на диск было сброшено, но не гарантирует, что файл был дописан до конца и закрыт. как пример - inotify write_close

Censo
()
Ответ на: комментарий от Censo

Блин, бесперебойник ставить надо… Что еще могу сказать

sky92
()
Ответ на: комментарий от sky92

Есть еще raidz2 и raidz3 которые выдерживают смерть 2 и 3 дисков, но их не юзал.

Я юзаю. Недавно на бэкапном сервере сдох диск и, пока внезапно долго ехал от поставщика, сдох второй, после доезда дисков сделал замену с ресильвером, 0 байт потеряно.

P.S. На что менять старые 2.5" 10krpm wd raptor'ы, блин? :( Чую, больше я их не найду, т.к. их давно перестали производить.

Deleted
()

А палец он показал?

gtk3 ★★★
()

Вот казалось бы. Ничего вообще не произошло. ZFS как работал под Linux, так и работает как модуль ядра или как часть ядра.

В чем смысл этой дискуссии? В чем смысл этого выступления от Linus?

Что значит ZFS не будет в ядре? - Оно в ядре и оно работает.

BTRFS может быть включен куда угодно, но оно как было отстоем так им и осталось.

P.S. Linus вообще не боится, что все его слова будут воспринимать как пустое место?

lefsha
()
Последнее исправление: lefsha (всего исправлений: 1)
Ответ на: комментарий от Deleted

В доках говорится что привязки нет к железу и можно юзать разные диски. Единственое что может быть это скорость будет равна самому слабому диску, но это не точно, так как это не аппаратный рейд и зфс может ранжировать нагрузку по дискам.. Так что бери замену по похожим характеристикам

У меня raidz на 2 одинаковых сеагейтах и одном похожем по характеристикам, но другой модели. Просадок или других проблем по сравнеию с одинаковыми дисками обнаружено не было.

А вообще насчет умирания дисков : одинаковые модели, из одной партии в равных условиях и естественно равным ресурсам - думаю нормальная картина что они будут вылетать друг за другом через какое то время использования (особенно во время замены на новый диск - во время ресинка риск возрастает с нагрузкой на оставшиеся диски), так что возможно это даже к лучшему в плане живучисти, что диски будут разные. Ну эт типо как 3 одинаковые тачки будут ехать одновременно по шоссе, с равным уровнем акселерации, с одинаково заправленным баком - остановятся примерно в одном месте. Короче если диск умер - надо срочно бежать его менять

sky92
()
Последнее исправление: sky92 (всего исправлений: 3)
Ответ на: комментарий от sky92

Какой бы бред Linus не нес, но поддержка в ядре абсолютная. ROOTFS на ZFS работает, GRUB это дело загружает. Я совершенно не вижу отличий от любой другой FS включенной в ядро по степени интеграции.

Но в плане надежности и удобства использования это день и ночь со всем остальным.

Это же смех и грех, но в ext4 нет поддержки lz4 сжатия. Данные так и хранят в прямом виде, даже если это одни 0-и.

lefsha
()
Последнее исправление: lefsha (всего исправлений: 1)
Ответ на: комментарий от lefsha

Да тут какие то криворукие говорили что у них всё развалилось и виновата ФС, а не их кривые руки. Причем я ни разу не видел инфы где говорится о массовых потерях данных с zfs из за каких то катострафических ошибках в коде. Еще утверждения сыпались о том что zfs не COW, а ROW, при том что снепшот это COW и все жертвы маркетинга, а он дартаньян.

sky92
()
Ответ на: комментарий от Deleted

На что менять старые 2.5" 10krpm wd raptor’ы, блин?

На какие-нибудь SSD? Потому как ваши рапторы от вендора как бы не подороже выйдут.

Nastishka ★★★★★
()
Ответ на: комментарий от Nastishka

На какие-нибудь SSD?

Ставить какой-нибудь SSDSC2KI010T801 на 3D TLC в сервер я как-то брезгую. А ближайший SSDSC2BB012T701 на MLC уже стоит 45тр и остатки (т.к. тоже уже сошли с производства, ибо S3520). Печалька, ну да ладно.

Deleted
()
Ответ на: комментарий от sky92

В доках говорится что привязки нет к железу и можно юзать разные диски. Единственое что может быть это скорость будет равна самому слабому диску, но это не точно, так как это не аппаратный рейд и зфс может ранжировать нагрузку по дискам.. Так что бери замену по похожим характеристикам.

Да я в курсе про отсутствие привязки к железу. Просто ближайшая актуальная и недорогая замена - это wd red 2.5". Но он 5400rpm и ровно в 2 раза медленнее wd raptor :)

Deleted
()
Ответ на: комментарий от sky92

Если на данные плевать, то можно любую FS на SSD ставить и backups не делать. Каждый сам себе злобный буратино.

Использование ZFS означает, что данные важны. Минимальная конфигурация в таком случае это mirror она же и оптимальная с точки зрения простоты обновления и замены дисков. Все остальное это практически лишний геморрой.

А вот идея использовать разнотипные диски желательно одного размера например SSD+HDD очень умна. Хотя где их найдешь одного размера… Дороговато это.

Но в таком случае чтение по скорости получается по SSD, а надежность данных по HDD.

Альтернативный и более дешевый вариант это L2ARC cache на NVME диске. You won’t ever look back!

lefsha
()
Последнее исправление: lefsha (всего исправлений: 1)
Ответ на: комментарий от mv

Собирай в raid-5/6, в нём сами данные равносильны контрольной сумме.

Но ведь нет же. Классический RAID (будь то 1, 5 или 6) работает только в том случае, когда из внешнего источника известно, какой из дисков повреждён.

intelfx ★★★★★
()
Ответ на: комментарий от intelfx

Лучше не стоит с ним спорить, можно заразиться криворукостью - устроишься в трехбуквеную контору и у тебя там бтрфс развалится после неилюзорных глюков(каких именно никто не знает, и ты про них тоже никогда не узнаешь)

sky92
()

Про то что перевод сделан «надмозгом» уже говорили?

ioway
()
Ответ на: комментарий от Deleted

Я юзаю. Недавно на бэкапном сервере

Таки решился переехать на линуксовый zfs и тоже на бекап сервере. Какой у тебя дистр/ядро и из какой репы/самому_собирать модуль и инструменты?

VKraft ★★
()
Ответ на: комментарий от VKraft

Ubuntu и ppa:jonathonf/zfs (он опять его сделал публичным вроде, хотя закрывал, но я и к приватной репе доступ имею, т.к. баги репортил ему) для личных нужд.

Deleted
()
Последнее исправление: Deleted (всего исправлений: 1)
Ответ на: комментарий от Deleted

Я привык к CentOS и там ядро ванильное 3.10 в 7-м и 4.18 в 8-м. А в ubuntu при обновлении ядра модуль zfs автоматом пересобирается или надо следить за версией ядра?

VKraft ★★
()
Ответ на: комментарий от anonymous

не нравится open source — уходи из профессии, если работаешь с серверами, например.

это мне что ли? ну как бы можно работать с серверами и не касаться при этом «opensource» вообще. венда там али ещё какой AIX.

mumpster ★★★★★
()
Ответ на: комментарий от lefsha

минимальная конфигурация ZFS в Солярис - это как раз не зеркало, а тупо 1 диск. видал я такие «чудесные» мин.конфиги :( и да - если данные действительно важны (то есть на это есть деньги) - проще купить СХД где все эти вопросы уже как-то решены. например, у EMC типовой подход к этой проблеме на CLARiiON/VNX был таков: основные данные - на НЖМД, а флеш - как fast cache. ну либо 2 или 3 уровневое хранение («tiering», FAST VP) когда часто используемые данные переползают с саты на сас и потом флеш и наоборот.

ну и идея использовать разнотипные диски в одном реплике данных - очень так себе. не, абстрактно она типа хорошая. но не учитывает реалий жизни (физику процессов). лично я экспериментировал с «W» в mdadm (надеюсь, знаете что это такое?) для дисков с разной скоростью работы, когда на чтение работал только 1 из зеркала, в принципе приход был.:-)

mumpster ★★★★★
()
Ответ на: комментарий от VKraft

Я привык к CentOS и там ядро ванильное 3.10 в 7-м и 4.18 в 8-м.

https://github.com/zfsonlinux/zfs/wiki/RHEL-and-CentOS

А в ubuntu при обновлении ядра модуль zfs автоматом пересобирается или надо следить за версией ядра?

В ubuntu вообще zfs (и kernelspace и userspace) встроена. Вышеуказанный ppa просто обновляет и userspace (zfsutil-linux и зависимые библиотеки) и kernelspace (пакет zfs-dkms) до актуальных версий.

Deleted
()
Ответ на: комментарий от intelfx

Но ведь нет же. Классический RAID (будь то 1, 5 или 6) работает только в том случае, когда из внешнего источника известно, какой из дисков повреждён.

Ну тут я лишку, пожалуй, дал: с сектором без интегрити бит рот в MD на ходу не определится, если сам диск его прошляпил, или вообще не проверяет, что у него там на блинах лежит. Но посыл был в том, что RAID восстановит данные, а не просто сругается на битую чексумму, если одно только интегрити есть.

mv ★★★★★
()
Ответ на: комментарий от mumpster

Тем, что он может трансформировать любые I/O запросы ядра в любые операции с дисками. Хочешь RAID0 — на, RAID1 — забирай, шифрование — пожалуйста, даже проброс диска по сети (хотя кому такое надо?) и то есть

deadplace
()
Ответ на: комментарий от mv

Но посыл был в том, что RAID восстановит данные, а не просто сругается на битую чексумму, если одно только интегрити есть.

А в zfs RAID не восстановит по твоему?

// Уже не читал тред, мимопроходил

deadplace
()
Ответ на: комментарий от deadplace

тут написана какая-то ересь. ибо по сути даже в венде начиная с 2000 (слава веритасу! vxvm слава!) такое есть.

mumpster ★★★★★
()
Ответ на: комментарий от sky92

я смотрю, везде пишут, что у ZFS идет просадка по производительности, если она заполнена больше 80%. т.е. предлагается держать 20%, а это дофига вообще-то. как можешь прокомментировать?

Solaris ZFS Best Practices Guide:

Keep pool space under 80% utilization to maintain pool performance. Currently, pool performance can degrade when a pool is very full and file systems are updated frequently, such as on a busy mail server. Full pools might cause a performance penalty, but no other issues. If the primary workload is immutable files (write once, never remove), then you can keep a pool in the 95-96% utilization range. Keep in mind that even with mostly static content in the 95-96% range, write, read, and resilvering performance might suffer.

crypt ★★★★★
()
Последнее исправление: crypt (всего исправлений: 1)
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.