По словам одного участников LKML, обнаружен "очередной патент на колесо". Печально то, что патент принадлежит Canopy Group(SCO), и включает в себя описание RAID. Подробности можно прочесть в Linux Kernel Mailing list.
А какже.
Международные конвенции защищают все то что тама понаписано про RAID в смысле авторства и никак не запрещают это знать и применять, если иное не оговорено. Опубликованные в этом документе сведения я могу использовать абсолютно свободно, однако не могу заявлять что я их автор, а следствием этого не могу извлекать прибыль из своего нечестного заявления об авторстве, в подтверждение этому и есть патент. Сам патент - средство публикации знаний и установление его источника, а не средство запрещающее его применение (если это не оговорено).
Патент на интеллектуальную собственность не является физическим объектом и не является предметом охраны собственности субъекта-источника (за что собственно в результате и вые.али SCO).
Патентное законодательство является реализацией законодательства об авторском праве.
(чет ты сегодня не в духе, новости какие-то провокационные постишь...)
Автор патента - знаменитая личность. Мультимиллионер, алкоголик, дебошир
и просто неадекватный человек ;) Много раз бросался в объятия
opensource, а затем давал задний ход.
господа хорошие, просветите по поводу вот такого вопросика (запостил в трёпе к новости "Какие новые возможности ожидаются в Linux ядре 2.6.12"):
нужен софтварный рейд на ферме распределённый по рабочим нодам. Нод до хрена, дисков на них тоже, а объединить это всё проблема: вылетает нода - доступ к части данных накрывается медным тазом, можно в тупую задублировать данные, но это накладно и нужно синхронизовать копии, что весьма нетривиально. Нужен распределённый рейд устойчивый к вылетам целых нод.
просьба к сетевым дискам не отсылать (железный рейд уже есть, просто ноды с идешными дисками тоже хотелось бы заюзать, к тому же на каждой ноде по два гигабитных интерфейса в двух разных сетках - одна под рейд, другая под нечто другое), может есть распределённая фс с требуемой функциональностью?
> нужен софтварный рейд на ферме распределённый по рабочим нодам. Нод до хрена, дисков на них тоже, а объединить это всё проблема: вылетает нода - доступ к части данных накрывается медным тазом, можно в тупую задублировать данные, но это накладно и нужно синхронизовать копии, что весьма нетривиально. Нужен распределённый рейд устойчивый к вылетам целых нод.
можно посмотреть в сторону RAID over NBD http://nbd.sourceforge.net/ b построить RAID5 по сети. или посмотреть DRBD - это правда RAID1.
> нужен софтварный рейд на ферме распределённый по рабочим нодам. Нод до хрена, дисков на них тоже, а объединить это всё проблема: вылетает нода - доступ к части данных накрывается медным тазом, можно в тупую задублировать данные, но это накладно и нужно синхронизовать копии, что весьма нетривиально. Нужен распределённый рейд устойчивый к вылетам целых нод.
можно посмотреть в сторону RAID over NBD http://nbd.sourceforge.net/ b построить RAID5 по сети. или посмотреть DRBD - это правда RAID1.
XYAH (*) (04.03.2005 15:19:00)
Не советую NBD - поделка. Работает нестабильно.
В принципе разница не велика, что NBD, что iSCSI (у iSCSI функциональность выше и масштабируемость и производительность (ну это не важно в данном случае). Разница только в том, что iSCSI это стандарт, а NBD - самоделка, причем кривая.
Пришлось в свое время иметь дело с NBD пока iSCSI не появился - на чтение нормально, с записью проблемы. Хотя конечно время идет, может и довели до работоспособного состояния. Хотя кому там доводить - ОДИН ЧЕШСКИЙ СТУДЕНТ и тот УЖЕ БРОСИЛ.
Вот кстати, его сайт
http://atrey.karlin.mff.cuni.cz/~pavel/
>просьба к сетевым дискам не отсылать (железный рейд уже есть, просто
>ноды с идешными дисками тоже хотелось бы заюзать, к тому же на каждой
>ноде по два гигабитных интерфейса в двух разных сетках - одна под рейд,
> другая под нечто другое), может есть распределённая фс с требуемой
>функциональностью?
А денег сколько есть?
Нахаляву нечто подобное будет сложно замутить, если есть требования к масштабируемости (на ходу добавлять и удалять носители), динамическое управление копиями (и репликацией), переключение копий по CRC для метаданных и прочими глупостями.
В самом простейшем случае можно, наверное, и программный RAID над iSCSI сделать[как тут уже предлагалось], но его производительность будет сильно хромать.
Lustre для указанной задачи не подходит. Там для failover нужно shared storage. К тому же на данный момент использование на одном хосте OST & клиента считается нестабильным и не поддерживается.