LINUX.ORG.RU

Представлена ещё одна реализация ZFS на уровне ядра Linux

 ,


0

0

Компания KQ Infotech представила свой проект портирования файловой системы ZFS на уровень ядра Linux. В отличие от проекта реализуемого по заказу LLNL, данный проект поддерживает ZFS Posix Layer (ZPL). Это значит, что можно работать с файлами с помощью файлового менеджера. Стоит отметь что это уже третий проект связанный с портированием поддержки ZFS в ОС на базе Linux-ядра.

Вот основные возможности проектов:

  • Проект по заказу LLNL поддерживает zpool v.26, портирован на I386 и AMD64, но не поддерживает ZPL
  • Проект компании KQ Infotech поддерживает zpool v.18, поддерживается ZPL, портирован только на AMD64 (будет поддержка Fedora 12, Red Hat Enterprise Linux 6 и Ubuntu 10.04 LTS)
  • Проект ZFS-FUSE поддерживает zpool v.23, поддерживает ZPL, портирован на I386, AMD64, PowerPC и Sparc. Также присутствует в основных репозиториях популярных дистрибутивов — Fedora (начиная с 11-ой версии), Ubuntu 10.04 LTS, Debian Squeeze и т.д.

Также отмечено, что KQ Infotech не будет продвигать патч в основную ветку ядра и выпустит его под лицензией CDDL. Скорее всего модули будут собираться на машине пользователя с помощью DKMS (как это происходит с проприетарными драйверами от ATI/NVidia или FOSS модулем от программы CDEmu)

>>> Подробности

★★★★★

Проверено: mono ()
Ответ на: комментарий от mumpster

дак вот, этот перечень объединяет заголовок

Storage array considerations – Consider the following points when configuring your storage arrays:

используй целый диск и будет щастье, хочешь файн тюнинг - заморачивайся на оптимизацию IO. логично?

а бзе кэша - зачем она такая красивая нужна? впрочем я комментарий свой уже написал zfs vs. arrays


зачем загружать системную память, забивать попусту очередь (я про host port queue depth если что), когда для этих целей в схд имеется NVSRAM.
уметь правильно приготовить есть залог успеха =)
а нужна для удобства и чтоб не тратиться на vxvm :p

естественно, но не с рабочими объёмами и рабочей нагрузкой. и без симметрикса, он у них один. был.;-)


я на 90% уверен, что собака порылась именно в cache flush, и всплывает это на реальных нагрузках. только отключать это надо надо на стороне схд, иначе, в случае чего, рискуете остаться, в лучшем случае, в сингл моде =)

совершенно чётко видно, что ZFS - нишевая ФС и она явно не для raid-СХД, а для всяких JBOD и внутренних дисков, что жизнь и опыт и подтверждают.


а вот после такого, становится ясно, что зфс вы тоже используете(вали) как обычный порошок. это мать ее платформа, и требует глубокого понимания происходящего с проектируемой системой. заточить ее можно под 1000 и еще одно применение ;)

зы сразу напишу - я никому ничего не навязываю, дабы опять не обвинили в пропаганде загнивающих технологий.

EvgGad_303 ★★★★★
()
Ответ на: комментарий от EvgGad_303

Я уже понял, что ожидать хоть какой-нибудь разумности от человека, который зарабатывает на zfs не приходится.
Если вы можете обыграть тот же крок - добро пожаловать к нам, вместо брехни на форуме покажите, чего вы на самом деле стоите.

Hokum ☆☆☆☆
()
Ответ на: комментарий от anonymous

Для того, чтобы производительность ZFS стала примерно равной тому же ext3/reiser нужно отключить ту самую «скц». Тем самым лишив сторонников последнего аргумента - передовой надёжности этой ФС

Hokum ☆☆☆☆
()
Ответ на: комментарий от anonymous

Документацию на этот массив. Она доступна на сайте, ссылки конкретные у меня на другом компе остались. Юнифаед сторадж это именно nas с возможностью san. Ему даже до клариона как до луны пешком.

Hokum ☆☆☆☆
()
Ответ на: комментарий от EvgGad_303

Видимо, это как раз оно. Уже не в первый раз речь заходит о неумении готовить. Малая доля, нехватка специалистов, вероятно проблемы с обучением и поддержкой.
Как вам такой вариант?
Ради интереса, если не забуду, погляжу сегодня что предлагается у нас на сегодняшний момент.
Однако же, раз дискуссия продолжается, хотелось бы примеры хай энд решений уровня HACMP на ZFS.

Hokum ☆☆☆☆
()
Ответ на: комментарий от odip

Ну так век живи, век учись. Теперь мы увидим новое ынтерпрайс внедрение zfs от odip?

Hokum ☆☆☆☆
()
Ответ на: комментарий от EvgGad_303

естественно, но не с рабочими объёмами и рабочей нагрузкой. и без симметрикса, он у них один. был.;-)


я на 90% уверен, что собака порылась именно в cache flush,

только отключать это надо надо стороне схд, иначе,

в случае чего, рискуете остаться, в лучшем случае, в сингл моде =)


А вот с этого места подробнее - как на Symmetrix или на Hitachi USP/USPV отключить кэш ?
Что, никак ?
Тогда зачем она такая «умная» нужна в связке с Hi-End массивами ?
Может всё же признаете, что ZFS изначально проектировалась в расчёте на работу с JBOD-ами ?

anonymous
()
Ответ на: комментарий от anonymous

Логику свою товарищи уже высказали - кеш отключить, деньги на симетр не тратить, работать с чем-то подешевле.
А то, что для некоторых задач только симетром и производительным хайэндом вообще и спасаешься от недопустимых тормозов, и, кстати, кэш и solid state там оказываются как нельзя к месту, так это просто неправильные задачи, их надо перепроектировать под ZFS.

Hokum ☆☆☆☆
()
Ответ на: комментарий от EvgGad_303

> я на 90% уверен, что собака порылась именно в cache flush, и всплывает это на реальных нагрузках. только отключать это надо надо на стороне схд, иначе, в случае чего, рискуете остаться, в лучшем случае, в сингл моде =)

Да, лучше на стороне массива, но zfs_nocacheflush позволяет быстро проверить, в этом ли проблема, если в этом, то тогда ее можно убрать и разбираться, как выключить на массиве.

anonymous
()
Ответ на: комментарий от Hokum

> Нет, я не продаю ничего, и не зарабатываю ни на ext3 ни на симетрах. Мне за державу обидно

А держава - это линакс надо понимать?

anonymous
()
Ответ на: комментарий от anonymous

>> я на 90% уверен, что собака порылась именно в cache flush,

А вот с этого места подробнее - как на Symmetrix или на Hitachi USP/USPV отключить кэш ?

Ты бы эта, доброе имя анонимуса не позорил, да? Читал внимательно? Слово flush видел? Перевод в словарике посмотрел?

На Хитачах вообще ничего делать не надо - они и так правильно работают и на кэш флаш не кидаются сбрасывать весь кэш, если у них все в порядке. Емсюкам бывает нужно объяснять, что этого делать не надо.

Тогда зачем она такая «умная» нужна в связке с Hi-End массивами ?

Затем же, зачем любая другая файловая система, не? Данные хранить.

Может всё же признаете, что ZFS изначально проектировалась в расчёте на работу с JBOD-ами ?

ZFS проектировалась для работы с любыми блочными устройствами в любых количествах. Для получения максимального количества плюшек желательно, чтобы уровень избыточности контролировала ZFS. Но даже и без этого можно работать вполне нормально.

А вот про ext3 можно признать, что она проектировалась для работы с одним диском, и если возможностей одного диска мало, приходится городить огород - mdadm'ом ли, внешними массивами ли, вобщем как-нибудь. Без этого за пределы возможностей одного диска не выйти ну никак.

anonymous
()
Ответ на: комментарий от Hokum

>> Че там покупать-то? Вроде денег за ZFS никто не просит.

Технология без поддержки в ынтерпрайсе? Ну-ну...


А я то думаю, че это у Novell финансовые показатели фиговастенькие? Видимо потому, что сервис хокумам забесплатно предоставляет.

Или это редхат тебе все бесплатно поддерживает?

Передергивать не надо

anonymous
()
Ответ на: комментарий от Hokum

> Для того, чтобы производительность ZFS стала примерно равной тому же ext3/reiser нужно отключить ту самую «скц». Тем самым лишив сторонников последнего аргумента - передовой надёжности этой ФС

Это с чего это ты взял? Эффект от отключения контрольных сумм для пользовательских данных ты почувствуешь, только если у тебя система уперлась в 100% загрузки по CPU, да и то разница будет небольшой. При этом ZFS все равно будет считать контрольные суммы своих метаданных. Так что способа отключить контроль целостности полностью просто не существует.

Тебе еще не надоело раз за разом газифицировать лужи? Всем же уже известно, что ZFS ты не осилил.

anonymous
()
Ответ на: комментарий от Hokum

> Пруфлинк на рост доли ZFS в ынтерпрайсе

Что, ссылку на квартальный отчет Symantec за последний квартал не осилил найти? Я ж говорю, тренируй свой google-fu

anonymous
()
Ответ на: комментарий от anonymous

cache>

на Hitachi USP/USPV отключить кэш

не, проще сделать что-то вроде
Synchronize Cache All Execution Mode = UNCHECK

Synchronize Cache Invalid Mode = CHECK

это для hitachi и zfs
для EMC - втыкать emc154421 и ветку на форуме community.emc.com/message/393027
вкратце: «And if the host will send a Synch Cache command, the DMX will immediatly acknowledge it, without any further action.»

по поводу обсуждения - просто zfs zealots не хотят признать проблем вроде таких:
http://napobo3.blogspot.com/2006/08/spec-sfs-bencmark-of-zfsufsvxfs.html

и проблем. лежащих в основе архитектуры (как Вы справедливо заметили - ZFS для JBOD):
«ZFS is designed to work with storage devices that manage a disk-level cache.» - это solarisinternals

mumpster ★★★★★
()
Ответ на: комментарий от anonymous

но zfs_nocacheflush позволяет

он позволяет выключить flush для ZFS целиком на данном сервере,
а очеь часто у людей бывает и СХД и JBOD, на вторых zfs_nocacheflush=1 катрегорически не советую. ну понятно, что можно в настрйоках sd/ssd ковыряться, но занятие это малоприятное и не для всех выпусков solaris работает.

mumpster ★★★★★
()
Ответ на: комментарий от Hokum

> Малая доля, нехватка специалистов, вероятно проблемы с обучением и поддержкой.

Пруфлинк?

Однако же, раз дискуссия продолжается, хотелось бы примеры хай энд решений уровня HACMP на ZFS.

Очевидно, избирательность того, что ты видишь, не позволила тебе заметить, что поддержка ZFS в Sun Cluster в режиме HA есть уже много лет как:

http://docs.sun.com/app/docs/doc/821-0259/cacffggg?l=en&a=view

anonymous
()
Ответ на: комментарий от mumpster

>> но zfs_nocacheflush позволяет

он позволяет выключить flush для ZFS целиком на данном сервере,


Мумпстер, ты тоже читать не умеешь, зато классно умеешь вырывать слова из контекста?

Написано же - «позволяет быстро проверить, в этом ли проблема»

а очеь часто у людей бывает и СХД и JBOD, на вторых zfs_nocacheflush=1 катрегорически не советую.


Про это уже написал EvgGad_303, так что мог бы и не трудиться.

ну понятно, что можно в настрйоках sd/ssd ковыряться, но занятие это малоприятное


Малоприятное, это да

и не для всех выпусков solaris работает.


Что ты тут хотел сказать?

anonymous
()
Ответ на: комментарий от Hokum

>>Я уже понял, что ожидать хоть какой-нибудь разумности от человека, который зарабатывает на zfs не приходится.
извините, но тут только ПНХ. ни одного контр-аргумента, ничего, лишь окружаюшую среду загрязняете своим метаном.

не знаю, что есть крок, впервые слышу.

добро пожаловать к нам, вместо брехни на форуме покажите, чего вы на самом деле стоите.


лол, но вы тут своими перлами успели дескридитировать даже компанию, в которой ?работаете?
но раз берут и таких, то, тем более, грош цена той компании.

EvgGad_303 ★★★★★
()
Ответ на: cache> от mumpster

> по поводу обсуждения - просто zfs zealots не хотят признать проблем вроде таких:

http://napobo3.blogspot.com/2006/08/spec-sfs-bencmark-of-zfsufsvxfs.html

Мумпстер, ты не болен? На дворе 2010 год, а ты приводишь ссылки на тесты 2006 года на Solaris 10 6/06.. Да, тогда было много проблем с производительностью. Четыре года прошло, неужели ты думаешь, что за четыре года ничего не изменилось?

и проблем. лежащих в основе архитектуры (как Вы справедливо заметили - ZFS для JBOD):
«ZFS is designed to work with storage devices that manage a disk-level cache.» - это solarisinternals

И че ты этим хотел сказать? Еще раз - ZFS может работать с любыми дисковыми устройствами, можешь считать свой симметрикс таким гипертрофированным диском к кучей кэша.

Какие ты проблемы в основе архитектуры узрел?

anonymous
()
Ответ на: комментарий от Hokum

> Нет, это ынтерпрайс

Ааа, тот самый новосибирский ынтерпрайс? Это хорошо, что ты за свой ынтерпрайс болеешь..

anonymous
()
Ответ на: комментарий от anonymous

Так её никто не осилил, потому она в ынтерпрайсе и не нужна. Одни одинокие внедренцы ещё что-то поют, но всё больше ерунду всякую.

Hokum ☆☆☆☆
()
Ответ на: комментарий от Hokum

> Это ж каким надо быть дебилом, чтобы так отвечать... Просто финишь

Что, не нравится, когда возвращают контекст к тому тупняку, который ты несешь? Ну ничего, учись нормально вести дискуссию.

anonymous
()
Ответ на: комментарий от EvgGad_303

короче, писька у тебя коротка, как до дела дошло. Ну-ну, продолжай смешить, непорочный ты наш чудо-внедренец....

Hokum ☆☆☆☆
()
Ответ на: комментарий от Hokum

> Так её никто не осилил,

Отучаемся говорить за всех. Пока что в этом треде ее не осилил только ты и Мумпстер.

anonymous
()
Ответ на: комментарий от anonymous

Всё, шваль. Ты меня достал. Либо пруф на твой реализованный проект с ZFS в ынтерпрайсе, либо засунь свои яйца себе в пищевод.

Hokum ☆☆☆☆
()
Ответ на: комментарий от Hokum

возможно и такое, но у меня есть примеры клинических идиотов, возглавляющих ит отделы, но это пол-беды, а вот когда они еще и практикуют админство или whatever - тушите свет...

Однако же, раз дискуссия продолжается, хотелось бы примеры хай энд решений уровня HACMP на ZFS.


общегосударственная система учета, выписки и тд и тп больничных/аптечных рецептов в электронном виде годится? 6 нод кластер под оракул, 6 нод под сап, ессессно кворум и лог сервер отдельный, 2х амс1000 трукопи и все-все-все. ну и идентичная конфа для тестов, только /2.

EvgGad_303 ★★★★★
()
Ответ на: Linux от mumpster

> кстати - вот любопытная статья в строчку:

https://lwn.net/Articles/400541/


И что там любопытного? Барьеры решили выкинуть? Так давно пора, и так ведро huge'n'bloated

anonymous
()
Ответ на: комментарий от Hokum

> Всё, шваль. Ты меня достал. Либо пруф на твой реализованный проект с ZFS в ынтерпрайсе, либо засунь свои яйца себе в пищевод.

Я гляжу тебе лавры Луговского покоя не дают? Но огорчу тебя - у тебя для этого слишком низкий IQ.

anonymous
()
Ответ на: комментарий от anonymous

уж сколько раз твердили миру...
если не понимаешь о чем речь - лучше промолчать, вдруг за умного сойдешь.

EvgGad_303 ★★★★★
()
Ответ на: комментарий от anonymous

яйца не застряли, да? пищевод широкий, или шарики мелкие?

Hokum ☆☆☆☆
()
Ответ на: комментарий от Hokum

> А это не моя идея, что производительность zfs ниже из-за «скц».

Отмазочки начались? В этом треде эту мысль ты высказал, так что будь готов за свои слова отвечать.

Ну и не тебе меня затыкать.

Тебя никто не затыкает - ты здесь фонтанируешь своим фонтаном из говна с метаном уже который день.

anonymous
()
Ответ на: комментарий от anonymous

Ну докажи, что это не так. Данный вывод был сделан такими же дебилами как ты в обсуждении тестирования фороникса, никто его там не опроверг.

Hokum ☆☆☆☆
()
Ответ на: комментарий от Hokum

> Ответ на: комментарий от Hokum 02.09.2010 10:26:29

конкретно нужно показатели tps в разрезе суток и график доступности

Ты уже сам с собой разговариваешь... Может, тебе скорую вызвать?

anonymous
()
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.