LINUX.ORG.RU

Вышли официальные спецификации OpenGL 3.0

 ,


0

0

OpenGL 3.0 включает в себя GLSL™ 1.30 (новую версию языка шейдеров).

Среди новых возможностей: массивы вершин, массивы текстур, новое сжатие текстур, неблокирующий доступ к объектам буфера вершин с возможностью обновить диапазон из него, 32-битные текстуры с плавающей точкой и буферы рендеринга.

Из плохого: как утверждает Phoronix, Intel пока даже не обращает внимания на OpenGL 3.0; Nvidia и ATI/AMD тоже пока используют старую версию, расширенную несколькими новыми возможностями, которые были документированы ранее.

Также в ближайшие 12 месяцев обещают набор новых расширений для OpenGL 3.0 и 2.1, реализующие похожий набор возможностей на старых видеокартах.

Спецификации можно взять отсюда: http://khronos.org/opengl/
Более подробная информация: http://khronos.org/news/press/release...

>>> Источник

★★★★★

Проверено: JB ()
Ответ на: комментарий от anonymous

P.S. Ни разу не видел, что МатЛаб неправильно посчитал бы мне интеграл (хотя работал с ним очень много). Очень много серьезных вещей в науке и промышленности моделируется в МатЛабе, поэтому утверждать конечно не буду, но скорее всего - 4.2 Чтобы не быть голословным, покажите мне интеграл, который неравильно посчитается в матлабе. Иначе - см. выше Про маткад ничего сказать не могу, не пользовался

anonymous
()
Ответ на: комментарий от anonymous

>Следующей революцией будет полноценные вычисления на GPU. Vista к этому полностью готова. Скажем, там УЖЕ есть планировщик для GPU.

Только DX может оказаться не у дел:)

http://alenacpp.blogspot.com/2007/03/nvidia-cuda-ati-ctm.html http://alenacpp.blogspot.com/2007/02/meet-larrabee-intels-answer-to-gpu.html

Вот это позабило:

Меня очень озадачила одна мысль NVidia. Они как-то так мягко и ненавязчиво рассказывают о том, какие современные графические API неудобные, с драйверами вечные проблемы, да и для неграфических приложений они не подходят... Вот у нас тут есть С-подобный язык, который все умеет, есть компилятор к нему, вот его и используйте. То есть DirectX становится вроде как и не нужным уже. Интересно, что думает по этому поводу Микрософт.

У ATI асм. Что у Intel не представляю.

Как бы DX и OGL не у дел получаются, почти - можно на прямую на GPU проги выполнять.

anonymous
()
Ответ на: комментарий от anonymous

Собственно вот, одна из технологий:

http://www.nvidia.ru/object/cuda_learn_ru.html http://www.nvidia.ru/object/cuda_get_ru.html

Под линух и мак тоже есть.

http://ru.wikipedia.org/wiki/CUDA

CUDA (англ. Compute Unified Device Architecture) — технология GPGPU, позволяющая программистам реализовывать на языке программирования Си алгоритмы, выполнимые на графических процессорах ускорителей GeForce восьмого поколения и старше (GeForce 8 Series, GeForce 9 Series, GeForce 200 Series), Nvidia Quadro и Tesla компании Nvidia. Технология CUDA разработана компанией Nvidia.

anonymous
()
Ответ на: комментарий от anonymous

>Их писать как раз не надо будет:) Нужен только 3D API

Ага, особенно с линуксовыми дровами, которые рассчитаны ТОЛЬКО на OpenGL и остают по добавлению новых фич..

anonymous
()
Ответ на: комментарий от anonymous

>Их писать как раз не надо будет:) Нужен только 3D API

Ага, особенно с линуксовыми дровами, которые рассчитаны ТОЛЬКО на OpenGL и отстают по добавлению новых фич..

anonymous
()
Ответ на: комментарий от anonymous

Вот поэтому и надо посмотреть, что имела в виду та же компания NVidia. Получается, что прога будет работать на GPU.

anonymous
()
Ответ на: комментарий от anonymous

Сегодня скачал CUDA - поддержка встроена в драйвер видяхи. Завтра на новую видяху перейду, не такие они и дорогие уже:)

BrookGPU — это проект-расширение C++, позволяющий использовать возможности процессоров видеокарт для обычных вычислений.

http://graphics.stanford.edu/projects/brookgpu/index.html

А вот мне уже очень понравилось:

anonymous
()
Ответ на: комментарий от anonymous

http://incognitus7.livejournal.com/7748.html

Для видеокарточек несколько лет назад зародилась целая технология, названная GPGPU General-Purpose computation on GPUs Первоначально эксплуатировалась идея, что пиксельные шейдеры в видеокарточках стали очень умными и быстрыми и неплохо бы их как-то заставить рассчитывать не только изображение в играх (или CAD'ах), но и что-нибудь поинтереснее. Поначалу использовались разные извращения с OpenGL и DirectX, когда в видеокарточку под видом текстур передаются данные, а под видом шейдеров функции для их обработки. Недостатком оказывается повышенная сложность программирования и невысокая скорость обмена данными между видеокарточкой и основной системой в направлении от видеокарточки к системе. Ведь в играх, фактически нет нужды передавать данные обратно.

Вот это:

В настоящее время сами производители Nvidia и AMD предлагают поддержку вычислений на всех уровнях: аппаратном, сделав процессоры видеокарточек более универсальными и ускорив обмен данными, на уровне драйверов, предоставив универсальные механизмы не завязанные на OpenGL или DirectX и на пользовательском уровне, предоставив библиотеки, компиляторы и SDK с примерами программ и документацией.

Практически никакие DX и OGL нафик не нужны теперь становятся:D Т.е. при желании можно и без них обойтись - был бы драйвер к видяхе.

CUDA driver: NVIDIA Driver for Linux with CUDA Support (177.13)

anonymous
()
Ответ на: комментарий от anonymous

>Практически никакие DX и OGL нафик не нужны теперь становятся:D Т.е. при желании можно и без них обойтись - был бы драйвер к видяхе.

Одна только маленькая проблемка. NVidia CUDA, ATI CTM и будущий OpenCL (это не ошибка - http://en.wikipedia.org/wiki/OpenCL) - не позволяют работать с изображениями.

Т.е. для вычислений они подойдут, а вот для вывода графики - не очень.

Ну и опять проблемы с драйверами.

anonymous
()

У Nvidia CUDA есть только 1 маленький недостаток - это Nvidia. т.е. если вы написали игру или мультимедийное приложение без d3d/opengl, приверженцы ati идут лесом. Тогда - или писать на коробке - видеокарты ati не поддерживаются, или писать 2 программы - под nvidia и под ati с их ассемблероподобным CTM. Так что пока не выработали единый аппаратно-независимый стандарт вычислений на ГПУ, мало что поменяется. Да к тому ж если с изображениями дело плохо.. Остается только надеятся, что в OpenGL 4:) добавят нормальную многопоточность и наконец забьют на обратную совместимость

anonymous
()
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.