LINUX.ORG.RU

кластер для параллельного счета гидрогазодинамики


0

0

Здравствуйте!

Прошу откликнуться людей, имеющих опыт создания кластеров на базе PC под Linux с гигабитной сетью для параллельного счета. Интересуют вопросы:

1) Есть ли какие-то подводные камни в выборе конфигурации PC и гигабитного cвича?

2) Какие дополнительные настройки операционной системы Linux требуются для ее параллельного использования?

3) Собираемся решать на нем задачи гидрогазодинамики с использованием тяжелых пакетов Fluent и CFX, какие подводные камни могут быть?

4) Возможно мои вопросы надуманны и кластер, собранный на основе обычных PC и Linux, будет вполне работоспособен?

Если есть возможность ответить или поделиться ссылками на информационные ресурсы, буду очень признателен. Готов также и к продолжительному сотрудничеству и дележкой опытом.

С уважением, Иван. ivanklok@yandex.ru

anonymous

...

>1) Есть ли какие-то подводные камни в выборе конфигурации PC и гигабитного cвича?

Ну желательно чтобы твоя гигабитная карта поддерживалась линухом ;)

А так рекомендуются PCI-X 64-bit карты от Intel или Broadcom сцепленные транком (по линуксовому - bonding) через 2+ свитча

>2) Какие дополнительные настройки операционной системы Linux требуются для ее параллельного использования?

It depends. По минимуму достаточно просто сцепить компы в одну сеть и поставить ту или иную библиотеку MP (mpich,lam,pvm) а по максимуму фантазия в области кластерных наворотов не ограничена (SSI,MOSIX,PBS,...,.......)

>3) Собираемся решать на нем задачи гидрогазодинамики с использованием тяжелых пакетов Fluent и CFX, какие подводные камни могут быть?

Стоимость лицензии на данные пакеты ;)

>4) Возможно мои вопросы надуманны и кластер, собранный на основе обычных PC и Linux, будет вполне работоспособен?

А куда он денется ;)

>Если есть возможность ответить или поделиться ссылками на информационные ресурсы,

http://www.cfd-online.com куча тематических форумов как по CFD продуктам так и по общим вопросам в CFD

http://www.cadfem.ru - официальная поддержка CFX в России

http://hp.parallel.ru/parBB/index.php - общие вопросы по кластерам

PS: Сейчас в текущей версии использую 8xDualOpteron на гигабитном бондинге (2x) Linux 2.4 + MOSIX+PVM+Самописный CFD софт (специфика задач не укладывается в стандартные пакеты да и нафига они нужны когда за годы уже наработано своего достаточно).... За 2 года эксплуатации особых косяков пожалуй и небыло . Сейчас вот планирую перейти на 2.6+OpenMOSIX и добавить еще пару узлов для ровного счёту ;)

sS ★★★★★
()

>(по линуксовому - bonding) через 2+ свитча

Насчет bonding я постараюсь найти и почитать, а что такое 2+ свитч? Кстати, насчет свитчей меня припугнули, сказали, что далеко не каждая модель гигабитника подойдет. Может, порекомендуешь что-нибудь, портов на 16?

Прошу тебя, если не трудно, кинуть мне на мыло конфигурацию твоего железа. Да, и какой Линух ты пользуешь?

С уважением, Иван. ivanklok@yandex.ru

ЗЫ С CADFem мы сотрудничаем, они настойчиво предлагают нам свои услуги по сборке кластера, но мне кажется, что эта задача нам вполне по силам. ;)

anonymous
()
Ответ на: комментарий от anonymous

>Насчет bonding я постараюсь найти и почитать, а что такое 2+ свитч?

какие бывают типы соединений и как это реализовать написано тут

/usr/src/linux/Documentation/networkin/bonding.txt

2+ это значит 2 и более свитчей в параллель.

>Кстати, насчет свитчей меня припугнули, сказали, что далеко не каждая модель гигабитника подойдет. Может, порекомендуешь что-нибудь, портов на 16?

Я использую пару 8-портовый D-Link-ов. Точно модель не назову, они сейчас в паре тыщ км от меня ;)

>конфигурацию твоего железа.

Узлы на 2xOpteron 242 (нужно помнить что железу 2 с лишним года) МВ: MSI K8T800 Master2-FAR Память: 2Gb (4-куска по 0.5 ... рекомендуется забивать все слоты памяти) 2-я сетевая дешевая :SysKonnect SK-98xx (первая - встроенный Broadcom) Диск: 120Gb Seagate ST3120026A

>Да, и какой Линух ты пользуешь?

В смысле какой дистрибутив или ядро ?

Ядро 2.4.25-mosix

ss@opteron1:~$ cat /proc/mosix/admin/version MOSIX(TM) Version 1.11.0 DFSA is enabled Maximum network topology = 4

Дистрибутив это как раз в данном случае вещь не замая важная

Конкретно у меня старая Slackware

По идее уже готова инфраструктура для перехода на x86_64+OpenMosix Но просто нет возможности этим заняться из-за того что в кластере постоянно вертятся задачи которые нужно "срочно прогнать"

>CADFem мы сотрудничаем, они настойчиво предлагают нам свои услуги по сборке кластера, но мне кажется, что эта задача нам вполне по силам. ;)

Если цены вменяемые и софт стандартный будет использоваться, я бы не парился с самостоятельной сборкой кластера. Тем более они люди опытные и знают что и как.

sS ★★★★★
()

Насчет софта - посмотри www.cfd.ru, весьма шусто бегает на 4х дуальном атлоне ХР с гигабиткой без всякого бондинга.

sabonez ★☆☆☆
()
Ответ на: комментарий от sabonez

>Насчет софта - посмотри www.cfd.ru, весьма шусто бегает на 4х дуальном атлоне ХР с гигабиткой без всякого бондинга.

Это Зибаров уже и под кластеры стал свой GDT делать ?

sS ★★★★★
()
Ответ на: комментарий от sabonez

а солвер видать старый ....

И всё те-же самые регулярные квадратные(кубические) сетки, несолидно ;)

sS ★★★★★
()
Ответ на: комментарий от sS

>По идее уже готова инфраструктура для перехода на x86_64+OpenMosix Но просто нет возможности этим заняться из-за того что в кластере постоянно вертятся задачи которые нужно "срочно прогнать"

А userland-tools разве готовы? Я насколько понял из разговора с человеком кто у нас этим занимался, то патч для 2.6 собрался, ядро заработало на наших Opteron, и даже собрался userland софт из CVS, но во первых там его почти нет, есть только утилита которая позволяет принудительно заставить процесс мигрировать на указанный узел, сами они не мигрируют. Потом при попытки заставить процесс мигрировать, нормально считываются его страницы, но после этого узел на который должен быть перенесен процесс ловит всякую хрень, но только не процесс :)

sigill
()
Ответ на: комментарий от sS

Правильно ли я понимаю, что подойдут любые/тупые гигабитные свичи, что они про бондинг ничего не знают, - все берет на себя Linux?

С уважением, Иван. ivanklok@yandex.ru

anonymous
()
Ответ на: комментарий от anonymous

>Правильно ли я понимаю, что подойдут любые/тупые гигабитные свичи, что они про бондинг ничего не знают, - все берет на себя Linux?

Типа того.

sS ★★★★★
()
Ответ на: комментарий от sigill

>А userland-tools разве готовы? Я насколько понял из разговора с человеком кто у нас этим занимался, то патч для 2.6 собрался, ядро заработало на наших Opteron, и даже собрался userland софт из CVS, но во первых там его почти нет, есть только утилита которая позволяет принудительно заставить процесс мигрировать на указанный узел, сами они не мигрируют. Потом при попытки заставить процесс мигрировать, нормально считываются его страницы, но после этого узел на который должен быть перенесен процесс ловит всякую хрень, но только не процесс :)

Я что-то подобное тоже слышал но пока не пробовал ;)

про "готовность" это не в том плане что там всё само тут же заработает а то что можно начинать экспериментировать с OpenMOSIX под 2.6 ;)

sS ★★★★★
()
Ответ на: комментарий от sS

Кстати сейчас я могу сказать модель свитча.

Compex DSG1008 ;)

D-Link стоит между кластером и рабочей сеткой ;) За 3 месяца пока железяк небыло перед глазами всё забыл просто ;)

sS ★★★★★
()
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.