LINUX.ORG.RU

Гослинг доволен производительностью Java

 , ,


0

1

Согласно последним замерам в некоторых тестах (например расчет сглаженных сплайнов), Java-вариант обходит FORTRAN-вариант на ~10%. Таким образом, учитывая надежность кластерных решений на JVM, платформа Java уже вполне пригодна для High Performance Computing.

>>> Подробности

anonymous

Проверено: Shaman007 ()
Ответ на: комментарий от anonymous

... Про балансировку нагрузки в HPC

>> Можно ли это сделать автоматически с good-enough качеством?

>Нельзя. Нужен очень умный и грамотный математик, такой, чтоб пальцы в дверь не проходили.

Ну а все-таки - есть какие-то средства анализа workflow на лету с целью его распараллеливания? Вроде бы чистые функциональные языки вроде Haskell должны в теории это уметь?

Absurd ★★★
()
Ответ на: комментарий от Absurd

>Вроде бы чистые функциональные языки вроде Haskell должны в теории это уметь?

Хаскель даже мусор убирать нормально не умеет с его отложенными вычислениями и работой с переменными.

rtc ★★
()
Ответ на: комментарий от Absurd

> Ну а все-таки - есть какие-то средства анализа workflow на лету с целью его распараллеливания? Вроде бы чистые функциональные языки вроде Haskell должны в теории это уметь?

Это всё хорошо для простых, невычислительных задач. Там тупым анализом dataflow можно найти независимые участки и разпараллелить. С численными методами всё хуже - там для разпараллеливания надо существенно менять логику вычислений.

anonymous
()
Ответ на: комментарий от anonymous

>С численными методами всё хуже - там для разпараллеливания надо существенно менять логику вычислений.

А кто-нибудь занимался например автоматической генерацией распараллеливаемой логики по описанию задачи в некоем декларативном виде?

Absurd ★★★
()
Ответ на: комментарий от Absurd

> А кто-нибудь занимался например автоматической генерацией распараллеливаемой логики по описанию задачи в некоем декларативном виде?

Вряд ли, мне такие работы не попадались. Слишком творческая задача.

anonymous
()
Ответ на: комментарий от Absurd

> А кто-нибудь занимался например автоматической генерацией распараллеливаемой логики по описанию задачи в некоем декларативном виде

Безусловно. Наверняка кто-то и в РАНовских НИИ.

sv75 ★★★★★
()
Ответ на: комментарий от anonymous

Если они и есть, то глубоко засекреченные - ни одной публикации по этой теме пока что не наблюдается.

anonymous
()
Ответ на: комментарий от Absurd

>... Про балансировку нагрузки в HPC
>>> Можно ли это сделать автоматически с good-enough качеством?

>>Нельзя. Нужен очень умный и грамотный математик, такой, чтоб пальцы в дверь не проходили.

>Ну а все-таки - есть какие-то средства анализа workflow на лету с целью его распараллеливания? Вроде бы чистые функциональные языки вроде Haskell должны в теории это уметь?


Есть работы по автоматически распараллеливающим компиляторам. Для SMP/OpenMP всё довольно просто, хотя и есть заморочки, но на моей кафедре, например, его однажды писали; для MPI тяжело, потому что успешное распараллеливание в MPI это наполовину удачный формат хранения данных и пересылки, очень сильно зависит от задачи.

anonymous
()
Ответ на: комментарий от anonymous

> С численными методами всё хуже - там для разпараллеливания надо существенно менять логику вычислений.

to Absurd: man "Параллелизм по данным" и "параллелизм по коду".

anonymous
()
Ответ на: комментарий от Absurd

>А кто-нибудь занимался например автоматической генерацией распараллеливаемой логики по описанию задачи в некоем декларативном виде?

на третьей странице http://mmedia0.cc.rsu.ru/pls/rsu/rsu$publications$.startup

писали автоматически распараллеливающий компилятор. Для SMP просто, но MPP и MPI лучше параллелится, хотя надо продумывать параллельный алгоритм с форматом хранения и обменом сообщениями.

anonymous
()
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.