LINUX.ORG.RU

NVIDIA CUDA 4.2

 , ,


0

1

NVIDIA выпустила новую версию CUDA Toolkit, которая позволяет вести разработку с использованием GPU на архитектуре Kepler, представителем которой является GeForce GTX680.

Другие новые возможности и функциональность, добавленные к имевшимся в версии CUDA 4.1:

  • новый компилятор CUDA на основе LLVM;
  • более тысячи новых функций обработки изображений;
  • переработанный Visual Profiler.

>>> Подробности

Deleted

Проверено: tazhate ()
Последнее исправление: tazhate (всего исправлений: 7)
Ответ на: комментарий от Vudod

Опубликуйте пожалуйста отчет и результаты:

В моём случае (E6550 и GeForce 560Ti) преимущество в ряде наиболее тяжелых вариантов задачи достигало 3,5 раз при использовании двойной точности.

Deleted
()
Ответ на: комментарий от Deleted

Я то думал что есть какие-то тесты, анализ, доступные для изучения статьи.

Я нигде не утверждал, что я являюсь автором статей с тестами. Тесты есть, сделанные мною узко для моей задачи (причинность по Грейнджеру с использованием нелинейных полиномиальных моделей) на 2 конфигурациях оборудования, какие были: E6500+GTX560Ti и Phenom920+GTX550Ti. Я не утверждаю, что написал оптимальный код, но при схожей сложности OpenCL вариант работает несколько быстрее. В любом случае, обе карточки имеют слишком низкую производительность с двойною точностью --- 1/24 от одинарной (одинарной точности там не достаточно), да и подсистема памяти в обеих конфигах слабая на сегодняшний день.

Vudod ★★★★★
()
Ответ на: комментарий от wstorm

Спасибо, интересный обзор, только почему у файла дата 2012 год а не май 2011 года, когда вышла Cuda 4.0 http://developer.nvidia.com/cuda-toolkit-40

Речь в нем только об OpenCL over Cuda 4.0 и ничего не говориться откуда взяты цифры для ATI - цифры в этом обзоре чисто теоретические ?

Может все таки кто-нибудь тестил имея две сопоставимые карты c GPU умножение больших матриц на них ? И сравнивал результаты с последними процессорами ?

Deleted
()
Ответ на: комментарий от wstorm

Т.е., как всегда, всё зависит от задачи - размера, объёма, типа операций, количества денег и свободных слотов... Но для биткойна нвидия всё аврно не катит.

wstorm ★★
()
Ответ на: комментарий от wstorm

Что говорит nvidia или ati - не верю я им обеим )

И использую то, что пригодно и имеется в наличии. Бегать каждый квартал за новой железкой денег нет.

Не спорю запас по мощи у ATI выше, но вот надежность железок ниже. А вот с ПО наоборот, у NVidia оно потому и закрыто, что лучше.

В целом карточки сопоставимы у обоих производителей.

Жду когда откроет код NVidia или объединят свои усилия по созданию недорого быстрого многоядерного вычислителя.

nVidia уже занялась планшетами и CPU - выпустив Tegra3.

Жаль что не Linux на них ставит, а ведроид. Кто-нибудь ставил на планшеты с Tegra3 Linux ?

Deleted
()
Ответ на: комментарий от wstorm

Насчёт остального - чёрт знает, скачайте исходники-запустите-проверьте :) На 99% сайтов с обзорами можно найти только тесты для крайзисов всяких.

wstorm ★★
()
Ответ на: комментарий от Deleted

OpenCL может быть и будет когда нибудь гожий, но пока всерьез рано его рассматривать.

Вообще-то в коммерческих продуктах для VFX OpenCL зарулил. А CUDA - нет. В инхаус CUDA все еще есть.

anonymous
()
Ответ на: комментарий от Deleted

A амд в феврале наобещала apu с прямым досутпом к памяти хоста через год-два. А та виртуальная память, которая объединяет память девайса и хоста, что есть у нвидии - вовсе не то, пока что. Хотя да, на самом деле никакой разницы - была бы идея, а средства всегда найдутся! :)

wstorm ★★
()
Ответ на: комментарий от wstorm

Карточек от ATI у меня нет. Субъективное мнение сложилось об этой компании, что они выпускают на рынок ненадежные железки, - конечно может это я такой «везучий». В последний раз видеокарты и чипсеты от ATI пользовал в 2005 году и снова пробывать желания нет.

Но последние их процессоры использую по той лишь причине что цены Intel задирает очень сильно.

Deleted
()
Ответ на: комментарий от Deleted

Ну... у меня был только 1 радеон, x800xl - и тот подарили. сейчас есть ноут с gef335m - какая там куда? :) Вряд ли буду брать амд - хочу или «3д транзисторы» айви бридж или 50gb/s+40pci-e 3.0 lga2011 (xeon e5-2620 - стоит дешевле i7-3930, но там больше проблем с выбором тихой СО и вменяемого корпуса для формата ssi-eeb под асусовскую мать «широкого назначения» http://www.ferra.ru/ru/system/news/2012/03/09/ASUS-Z9PE-D8-WS-2-LGA-2011/)

wstorm ★★
()
Ответ на: Не может. от anonymous

Удались. Blender CUDA очень хорошо умеет.

Boboms ★★
()
Ответ на: комментарий от Turbo_Mascal

Blender может использовать CUDA

Нет. Не может.

Blender (2.62) «из коробки» может использовать CUDA (при использовании движка Cycles).

Так что самозабанься, очисти ЛОР от своей вони.

Boboms ★★
()
Ответ на: комментарий от unikum

Читал давно, но если правильно помню, то использовать можно для более быстрого кодирования видео кодеком x264. Вроде обещали 50% прироста фпс. Сам не проверял, но хотелось бы как нибудь разобраться.

sy-uname
()

Интересно было бы глянуть на список этих «1000+ image processing functions»

Eddy_Em ☆☆☆☆☆
()
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.