LINUX.ORG.RU

Корпорация AMD анонсировала GPUOpen — инструменты, графические эффекты, библиотеки и SDK с открытым исходным кодом

 , , , gpuopen,


3

3

Разработчикам будут предоставлены инструментарий и ресурсы для того чтобы выжать из видеокарт по максимуму, как в играх, так и в приложениях направленных на вычисления.
И, в отличии от широко используемого GameWorks корпорации NVIDIA, GPUOpen не будет «непригодным для использования черным ящиком».
Исходные коды даже будут выложены на GitHub!

Напомню, что месяц назад также был обещан альтернативный компилятор совместимый с CUDA — Boltzmann.

>>> Подробности



Проверено: Shaman007 ()
Последнее исправление: Shaman007 (всего исправлений: 4)
Ответ на: комментарий от anonymous

Насчет интеля тоже не соглашусь, вы вообще в геймдеве или мимокрокодил?

Я в AAA геймдеве, и я смотрю на ситуацию под другим углом. Если у вас опыта серьезнее Hello World нет, то дальше спорить нет смысла. Я могу назвать с десяток AAA тайтлов с интегрированным PhysX (не говоря о том, что он включен в Unity и Unreal по умолчанию), некоторые из них могут работать на интегрированных картах. Поддержкой Intel пусть занимаются сам Intel, у меня другие задачи. Важный момент в том, что GPU у Intel слабые и игры c хорошей графикой всегда будут GPU bound, поэтому смысла переносить физику на GPU нет вообще.

я довольно плотно в них покопался чтобы сравнить на нижнем уровне

ну вы поделитесь результатами своих плотных копаний, было бы интересно

mastermind
()
Ответ на: комментарий от mastermind

А в какой области? На анриле\юнити ваяете? Это бы многое объяснило, я же больше по самому движку. У PhysX есть один жирный минус, без куды все - баста, CPU. При этом если в игре есть места с насыщенной физикой - их приходится резать, в то время как при использовании других решений fallback происходит на шейдеры\ядра и можно не резать. С интелем и слабыми карточками ситуация сложная, можно скомпилить шейдер при момощи llvmpipe в оптимизированный SSE\AVX - так не придется писать код дважды, можно запустить таки на GPU, можно скомбинировать. Оптимальная комбинация подбирается.

anonymous
()
Ответ на: комментарий от mastermind

Важный момент в том, что GPU у Intel слабые и игры c хорошей графикой всегда будут GPU bound

смотря какие Intel GPU. Intel 4600 уже достаточно быстрая, что-бы выдать неплохую графику. Это ж не Х3100.

Я могу назвать с десяток AAA тайтлов с интегрированным PhysX

потому что он люто рекламируется. Попробуйте назвать физический движок того же bioshok или amnesia, уже нужно в интернеты лезть. PhysX - это пиар.

OpenMind ★★★★
()
Ответ на: комментарий от OpenMind

И однако я не говорю что PhysX плох, на CUDA и CPU 3.3 версия вполне норм. Часто этого достаточно, часто вообще CPU достаточно, но не все об этом знают. Тем более если он есть в коробке энжина - не факт что нужно париться больше. Однако сравнивать надо объективно, если нужна не только куда и насыщенная физика - лучше приглядеться к другим решениям.

anonymous
()
Ответ на: комментарий от anonymous

С интелем и слабыми карточками ситуация сложная, можно скомпилить шейдер при момощи llvmpipe в оптимизированный SSE\AVX - так не придется писать код дважды, можно запустить таки на GPU, можно скомбинировать. Оптимальная комбинация подбирается.

вариант с «llvmpipe в оптимизированный SSE\AVX», это оверхед по процу будет лютый. А GPU вообще жесть: железо сильно разное, может на кучу конфигураций просто не пойти. Идеально - просто дать возможность отключить эффекты и уменьшить датализацию до минимума.

OpenMind ★★★★
()
Ответ на: комментарий от anonymous

Я работаю в NVIDIA. Занимаюсь портированием AAA игр на Shield, иногда интеграцией GameWorks в движки/игры, исправлением багов и еще много чем.

в то время как при использовании других решений fallback происходит на шейдеры\ядра и можно не резать

Вы это делали в реальном проекте?

С интелем и слабыми карточками ситуация сложная, можно скомпилить шейдер при момощи llvmpipe в оптимизированный SSE\AVX

PhysX на CPU будет работать лучше.

можно запустить таки на GPU

Не прокатит, выше говорил, почему.

скомбинировать

Например?
Единственное, что можно сделать (и что всегда делается) - порезать физику/графику. Обычно всегда можно отключить некоторые эффекты без ущерба геймплею.

mastermind
()
Ответ на: комментарий от anonymous

Часто этого достаточно, часто вообще CPU

ну не надо так! Зачем тогда нужны современные технологии? Нужно их использовать, а не просто тратить.

OpenMind ★★★★
()
Ответ на: комментарий от mastermind

PhysX на CPU будет работать лучше.

это не опечатка? может на GPU?

Единственное, что можно сделать (и что всегда делается) - порезать физику/графику. Обычно всегда можно отключить некоторые эффекты без ущерба геймплею.

это конечно, правильное решение, но лучше бы оно применялось если железо физику не может, или не может быстро.

OpenMind ★★★★
()
Ответ на: комментарий от mastermind

Да, делал разумеется, тот же bullet на AMD исполнится на OpenCL, мой собственный работает на GLSL, в чем удивление? PhysX на интеле только на CPU и будет, с 3.3 скорость весьма достойная для CPU, согласен. Однако эксперементально я получал скорость выше, запуская часть на intel GPU, а иногда и целиком на GPU. Тем более иногда симуляции полностью независимые и их легко раскидать кто куда.

anonymous
()
Ответ на: комментарий от OpenMind

Нет, с llvmpipe я получал вполне достойные результаты, может ручная оптимизация и больше даст, но не тормоз точно и код дважды писать не надо. Резать при слабом железе конечно придется, вопрос насколько.

anonymous
()
Ответ на: комментарий от anonymous

ну в принципе да. Но всё равно идеальный вариант - отключаемость фич.

OpenMind ★★★★
()
Ответ на: комментарий от OpenMind

смотря какие Intel GPU. Intel 4600 уже достаточно быстрая, что-бы выдать неплохую графику. Это ж не Х3100.

AMD Kaveri 7850k. На данный момент круче только яйца.
Упор - в видеочасть и память.

devl547 ★★★★★
()
Ответ на: комментарий от devl547

ну так при повышении разрешения, повышаются требования к памяти, то есть на HD при таком раскладе будет 80 кадров, а на FullHD уже как бы 40 - 50. В свете DDR4 памяти эта проблема вскоре исчезнет)

OpenMind ★★★★
()
Ответ на: комментарий от OpenMind

В свете DDR4 памяти эта проблема вскоре исчезнет

Улучшится, но не изчезнет. Вот eDRAM или HBM под крышкой - это уже путь к решению.

Плюс у AMD просто отвратный IMC, который на той же памяти сильно медленнее Intel.

devl547 ★★★★★
()
Последнее исправление: devl547 (всего исправлений: 1)
Ответ на: комментарий от devl547

eDRAM или HBM

ну если такая опера появится... то да.

Плюс у AMD просто отвратный IMC, который на той же памяти сильно медленнее Intel.

ну... тут не сравнивал, не знаю. А можно где-то почитать? а то в гугле тестов именно по этой теме не вижу.

OpenMind ★★★★
()
Ответ на: комментарий от OpenMind

А можно где-то почитать? а то в гугле тестов именно по этой теме не вижу.

Да хоть скриншоты теста AIDA64 с одинаковой памятью посмотри.
Та же память, те же два канала DDR3-2400, а AMD сливает капитально.

devl547 ★★★★★
()
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.