LINUX.ORG.RU

В OpenSolaris появится storage software корпоративного уровня


0

0

Планируется включить в состав OpenSolaris поддержку:

Sun StorageTek 5800 storage system.
SAM-FS (Storage Archive Manager).
QFS ( Sun StorageTek QFS shared file system software improves quality of service and utilization of SAN infrastructures)

>>> Подробности



Проверено: Pi ()
Ответ на: комментарий от INFOMAN

Просто г-да из Sun открыли код, касающийся поддержки промышленных систем хранения данных. Можно надеется, что это принесет громадную пользу всему опенсорс сообществу. Весьма наглядный пример - портирование ZFS на FreeBSD.

Sun-ch
() автор топика
Ответ на: комментарий от Sun-ch

>Просто г-да из Sun открыли код, касающийся поддержки промышленных систем хранения данных.

Это не те господа что придумали промышленный Ping of death и дырявый telnet ?

Видимо у кого-то этот storage software сильно глюканул, а сантехники разобраться не смогли, вот ждут теперь помощь от сообщества...

anonymous
()
Ответ на: комментарий от anonymous

Ошибки бывают у всех, даже у легендарной OpenBSD. Я бы все-таки рекомендовал, познакомится с той же QFS и понять, что подобные возможности под линуксом реализовать очень непросто.

Sun-ch
() автор топика

Бредовая новость. Сходил, нарушая традиции, по ссылке, даже прочитал, и даже быдлофлешролик посмотрел. Ничего кроме пиара не увидел. Зачем оно надо? Или это сану всё неймется? То свою жабу пиарят, то решения интерпрайз класса( с интерпрайз дырами).

anonymous
()
Ответ на: комментарий от anonymous

>Зачем оно надо?

Чудо ты в перьях. Тебе слова:

A Sun StorageTek QFS shared file system is a distributed file system
that can be mounted on multiple Solaris OS host systems.

и

The advantage of the Sun StorageTek QFS shared file system is that file data passes directly from the Fibre Channel disks to the hosts. Data travels via local path I/O (also known as direct access I/O). This is in contrast to the network file system (NFS), which transfers data over the network.

о чем-то говорят вообще ?

Alter ★★
()
Ответ на: комментарий от Alter

> А ты QFS не эксплуатируешь часом нигде ? Мнение интересует.

У меня нет. У заказчиков есть. Что именно интересует?

ivlad ★★★★★
()
Ответ на: комментарий от BrandStorm

> Быстро, не прошло и 10 лет, как в оперсолярисе появилась распределённая ФС :-)

ГЫ сына ! ЛОЛ! (с) Не моё

iBliss
()
Ответ на: комментарий от ivlad

>У меня нет. У заказчиков есть. Что именно интересует?

Интересует применимость сего чуда к схеме:

2-10 SMTP серверов пишут на -> QFS shared storage -> 2-20 POP/IMAP/Webmail серверов отдают записанное клиентам.

Будет ли такая схема работать _хорошо_ ?

Alter ★★
()
Ответ на: комментарий от Alter

> Будет ли такая схема работать _хорошо_ ?

Ну если не будет - то ты получишь квалифицированное энтерпрайз-класс сочувствие :-)

no-dashi ★★★★★
()
Ответ на: комментарий от no-dashi

>Ну если не будет - то ты получишь квалифицированное энтерпрайз-класс сочувствие :-)


Эээ... Коллега, по делу есть чего сказать ?


P.S.
Вариант c люстрой не подходит.

Alter ★★
()
Ответ на: комментарий от Sun-ch

> NFS was developed inside Sun Microsystems in the early 1980s

Это не про нее тогда говорили:

The "N" in NFS stands for Not, or Need, or perhaps Nightmare.

?

sv75 ★★★★★
()
Ответ на: комментарий от Alter

Дык проконсультируйся у крупных хостеров, типа демоса или ахи. У них ребята очень толковые.

Sun-ch
() автор топика
Ответ на: комментарий от dotcoder

GFS originally developed as part of a thesis project at the University of Minnesota. At some point it made its way to Sistina Software, where it lived for a time as an open source project.

Ну да, XFS, удивительная по своим свойствам файловая система, под линаксом может отказать. Проверено, в реальных условиях эксплуатации. И самое печальное, что ситуация в этой области не меняется годами.

Sun-ch
() автор топика
Ответ на: комментарий от robot12

>Боян от 10 апреля.

Ну извиняйте, барин. Нам с пеару санок денег никто не платит. Чисто джастофан, опять же выпимши мы были изрядно всю неделю, патти-матти, презентации с голыми девками и прочая мелкобуржазная канитель.

Sun-ch
() автор топика
Ответ на: комментарий от Sun-ch

>Весьма наглядный пример - портирование ZFS на FreeBSD.

Дык, для бзды это может и хорошо, но под Linux файловых систем хватает. нах юзать быдлоподелку от ссаных?

anonymous
()
Ответ на: комментарий от anonymous

>но под Linux файловых систем хватает. нах юзать быдлоподелку от ссаных?

У меня сложилось впечатление, что файловые системы под линаксом, не вполне надежны. Вот я, на спор, завалил райзер простым скриптом на perl,

1000 миллионов вложенных каталогов, ето вам не не мелочь тырить по карманам, система была убита в говно.

Sun-ch
() автор топика
Ответ на: комментарий от Sun-ch

> У меня сложилось впечатление, что файловые системы под линаксом, не вполне надежны. Вот я, на спор, завалил райзер простым скриптом на perl

1) Райзер и надежность - две вещи несовместные; 2) Теперь пжлста запустите свой скрипт на солярисе и расскажите что случится.

pazke2
()
Ответ на: комментарий от Alter

> Будет ли такая схема работать _хорошо_ ?

ИМХО Да. Функционал предусматривает работу двух приложений с одним файлом, вот только в таком случае результирующий файл будет тот кто закрылся позже - предыдущий канет в лету. А вообще попробуй локально - сам во всем убедишься.

iBliss
()
Ответ на: комментарий от iBliss

>А вообще попробуй локально - сам во всем убедишься.

Вы серьёзно считаете что "это" можно воспроизвести локально или просто не прочитали условия задачи ?

Alter ★★
()
Ответ на: комментарий от anonymous

етит ту за ногу.., Sun-ch ты вообще переводчик не юзаеш при добавлении новостей??

dragon_djanic ★★
()
Ответ на: комментарий от Alter

> ы серьёзно считаете что "это" можно воспроизвести локально

Подымаешь две зоны, в глобальной создаешь файлик на гиг lofiadm+zfs+ отдаешь его по iSCSI в локальных зонах монтируешь, в локальных зонах подымаешь почтовики и два скриптика - один спамит второй забирает. Возни часа на 2.

iBliss
()
Ответ на: комментарий от Sun-ch

> 1000 миллионов вложенных каталогов, ето вам не не мелочь тырить по карманам, система была убита в говно.

Немедленно пости скрипт, Сан-ч, тут целая армия желающих потестить на боевых быдлосервачках.

Gharik
()
Ответ на: комментарий от iBliss

>Подымаешь две зоны, в глобальной создаешь файлик на гиг lofiadm+zfs+ отдаешь его по iSCSI

Opps.. И _чего_ мы в этом случае протестируем ? Причем тут iSCSI вообще?

Я, конечно, извиняюсь, но вы вопрос читали ? Понимаете ли о чем идет речь ? Как вы меня понимаете ?

Alter ★★
()
Ответ на: комментарий от Alter

> Я, конечно, извиняюсь,

Да ладно не монашка.

> но вы вопрос читали ?

Да подсознательно %)

> Понимаете ли о чем идет речь ? Как вы меня понимаете ?

"2-10 SMTP серверов пишут на -> QFS shared storage -> 2-20 POP/IMAP/Webmail серверов отдают записанное клиентам."

Тебе нужно запустить несколько почтовых серверов с общим мыльным пулом лежащим физически на одном сетевом диске (ну слайс на сетевом рейде например). ????? Если я ничего не путаю - единственный косяк который может случится - ошибки в результате одновременной модификацией одного диска несколькими клиентами. Вот я и привел тебе пример в котором ты можеш создать имидж локально отформатить его в тот-же zfs и отдать двум нодам которые сыграют роль этих самых клиентов. Что не так ?

iBliss
()
Ответ на: комментарий от Alter

> Будет ли такая схема работать _хорошо_ ?

у меня есть ощущение, что NFS + maildir (дабы упростить локинг за счет уникальности имен файлов) будет делать это дешевле. В QFS по-моему, доступ к метаданным довольно дорогой (в смысле процессорного времени), а тут (особенно при maildir, опять же, что б с распределенным локингом не возиться) будет много мелких файлов.

А если ты пожелаешь делать все в mailbox, а не maildir, что б файлы были больше, то будет тормозить из-за локинга - SMTP доставляет новые письма, а POP читает и удаляет старые.

Все-таки, HPC, для которого это интересно, это не тоже, что твой случай. А еще правильно все это в комплекте с SAM, необходимость которого в твоем случае, опять же, неочевидна.

Это мое личное IMHO, я попробую узнать поподробней.

ivlad ★★★★★
()
Ответ на: комментарий от anonymous

> Дык, для бзды это может и хорошо, но под Linux файловых систем хватает. нах юзать быдлоподелку от ссаных?

Потому, что тупые анонимусы не знают, чем отличается ZFS от "файловых систем под Linux", а пойти прочитать у них времени нету - нужно дурацкими постингами базу данных на ЛОРе заполнять, а то ведь злые модераторы опять проапгрейдят сервер, увеличат винт - и работай потом...

ivlad ★★★★★
()
Ответ на: комментарий от Sun-ch

> Ну да, XFS, удивительная по своим свойствам файловая система, под линаксом может отказать

Может, еще как - и далеко не из-за проблем питания. Потому что надо использовать JFS, на которую я с XFS ушел и всем рекомендую. Может она не такая "удивительная по свойствам", но без глюков. А у "удивительной" xfs такие удивительные глюки бывают, если там что-то ломается, что просто диву даешься.

anonymous
()
Ответ на: комментарий от Gharik

>Немедленно пости скрипт, Сан-ч, тут целая армия желающих потестить на боевых быдлосервачках.

Скрипт он в совсем незамысловатый, типа рекурсия, но постить я его не стану. Со мной и так все девочки в лифте здороваться перестали.

Sun-ch
() автор топика
Ответ на: комментарий от ivlad

>у меня есть ощущение, что NFS + maildir (дабы упростить локинг за счет уникальности имен файлов) будет делать это дешевле

Хмм.. Неожиданно (для меня), конечно.

Мне почему-то думалось что архитектура:

[client] <-> [metadata server]
|-> [storage1] [storage2]
|-> [storage4] [storage4]

имеет более низкий оверхед vs. NFS + значительно более высокую масштабируемость, но более сложную реализацию.


> В QFS по-моему, доступ к метаданным довольно дорогой (в смысле процессорного времени)

Вот тут как раз самое интересное: оно действительно дорого или немного дороговато конечно, но весьма масштабируемо ? (/me был бы очень благодарен если получиться узнать)


Есть мнение, что на NFS такую конструкцию делать не надо, т.к. ложится оно под нагрузкой и с есть проблемы с локами.


Alter ★★
()
Ответ на: комментарий от iBliss

>Если я ничего не путаю - единственный косяк который может случится - ошибки в результате одновременной модификацией одного диска несколькими клиентами.

Нет, основной косяк, который может случиться - это вставание раком вашего "слайса на сетевом рейде", когда на него полетит 50K+ TPS и пребывание его в такой позе вплоть до выключения питания в датацентре.

>Что не так ?

В разнице к требованиям по надежности между тестовым стендом на коленке и реальной жизнью.

Alter ★★
()
Ответ на: комментарий от Alter

> В разнице к требованиям по надежности между тестовым стендом на коленке и реальной жизнью.

Ээээ dtrace + калькулятор + ТТХ рэйда не спасут ?

iBliss
()
Ответ на: комментарий от Sun-ch

>1000 миллионов вложенных каталогов, ето вам не не мелочь тырить по карманам, система была убита в говно.

Ссаныч, хорош флудить. соляра это наверное выдержала без малейшего напряга?

anonymous
()
Ответ на: комментарий от Sun-ch

>Андрей, а почему ты не хочешь воспользоваться опытом крупных хостеров?

У реально крупных и доступных "на пообщаться" сделано все в немного другой архитектуре: поток приземляется на ..дцать почтовых backend'ов, соответственно при "вставании раком" по разным причинам одного из этих backend'ов 1/..дцать почтового сервиса становиться (мало|недо)ступным.

P.S.
Опыт mail.ru интересен, там afaik GFS на FC, но информации почти нет.

Alter ★★
()
Ответ на: комментарий от iBliss

>> как сей raid монтировать будете ?
> Не понял смысла вопроса

Каким образом ваш сетевой raid будет шариться между клиентами, при условии,что каждый клиент должен иметь full access to all raid data ? Протокол какой? какая FS ?

Alter ★★
()
Ответ на: комментарий от iBliss

>ZFS партиция которую каждый клиент цепляют по iSCSI


Имею IMHO: http://mx.ru/Lists/CGatePro/Message/15337.html?Skin=Russian , там выше по треду тоже интересно.


P.S.
А что производители iSCSI карточек уже научились у заклинанию колдовать "уменьшить латентность в 3 раза" <карточка> ? :D

Alter ★★
()
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.