LINUX.ORG.RU

NVIDIA CUDA


0

0

16 февраля корпорация NVIDIA выпустила бета-версию SDK для распределённых вычислений CUDA и компилятор С для расчетов на графических процессорах NVIDIA, поддерживаются GPU серии 8k

Скачать SDK: http://developer.nvidia.com/cuda

>>> Пресс-релиз

★★★

Проверено: Shaman007 ()
Ответ на: комментарий от unnamed_player

>А под линукс будет

А по ссылкам не ходим? =)

>CUDA Software Developers Kit (SDK) and C compiler for Windows XP and Linux (RedHat Release 4 Update 3)

anonymous
()

Если видеокарта будет математикой заниматься, то кто будет картинку на екран выводить?

anonymous
()
Ответ на: комментарий от unnamed_player

А не лучше сразу двухголовым обзавестись?

Lumi ★★★★★
()

класс! теперь все ломанутся покупать мега-навороченные видюшки и строить на них кластеры :)

isden ★★★★★
()

Круто, теперь будет легче объяснить начальству, зачем нужна топовая видюха на считающей машине. "Фурье и вейвлет преобразования летают, квейк тоже не тормозит."

dn2010 ★★★★★
()
Ответ на: комментарий от dn2010

> Круто, теперь будет легче объяснить начальству, зачем нужна топовая видюха на считающей машине. "Фурье и вейвлет преобразования летают, квейк тоже не тормозит."

Баянистая и поюзанная отмазка. У АТИ уже и средства есть и в Р300 расклад ещё круче обещается - вообще ограничений по числу GPU не будет.

Gharik
()
Ответ на: комментарий от unnamed_player

>А sli на что? Одна считает другая выводит, можно для вывода картинки pci видюшку поставить..

Патстулам.

A что CUDA на PCI не работеат?

ansi ★★★★
()
Ответ на: комментарий от ansi

>A что CUDA на PCI не работеат?

А где найти NVIDIA 8xxx PCI (не PCI-E)?

anonymous
()

> NVIDIA CUDA

Куда? Да всё туда же - фсат. Вместе с ATI. Халтурщики.

anonymous
()

The page you have requested is currently undergoing maintenance and will be available again by February 18th at 2:00 PM PST.

sS ★★★★★
()
Ответ на: комментарий от zcrendel

> а под радеон пойдет? под радеон будет тулкит TUDA

anonymous
()
Ответ на: комментарий от anonymous

> >8800 GTX состоит из 128 процессоров

> Суксь мастдайный. У 5(?)-летней давности 3dlabs было 256

реально в GPU столько ядер ставят? :-[ ] вот ведь....

isden ★★★★★
()

А когда линукс под процы от нвидиа портируют? :)

anonymous
()
Ответ на: комментарий от anonymous

Согласно результатам народа с gpgpu (на на CUDA, а просто на GPU) в среднем в 4-5 раз лучше. Но вот у меня на brookGPU тестовая теплопроводность на NV31 оказалось всего в полтора раза лучше чем PVI 2.4 - потому как надо уметь писать, в лоб делать не стоит ;)

anonymous
()

Эхма, научились бы кодеки нормально кодировать видео посредством видеокарты. Вот тут бы как раз расчет на GPU и пригодился бы. А то у ATI есть типа кодек AVIVO, якобы считающий на видеокарте, но судя по скорости и нагрузки на процессор все это фикция.

Eugeny_Balakhonov ★★
()
Ответ на: комментарий от Eugeny_Balakhonov

>Эхма, научились бы кодеки нормально кодировать видео посредством видеокарты.

Эхма, люди которые занимаются видео, не тратят время на глупости, а покупают матрокс диджисьют, или другие платы риалтайм видеомонтажа, которые заодно умеют и жать аппаратно. Да, студенты может и не асилят платку за 5к баксов, но они могут и подождать пока их home video porno с вебкамеры жмется в огг теору на целероне %)

anonymous
()

А при расчётах они используют память видеокарты или системную? Просто слышал, что вроде на видеокарты обычно ставят несколько разогнаную память т. к. там требования к её надёжности значительно ниже. В расчётных задачах это может быть уже неприемлемо...

slav ★★
()
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.