LINUX.ORG.RU

NVIDIA не будет развивать драйвер nv

 ,


0

0

Корпорация NVIDIA объявила, что развитие драйвера nv прекращено. В частности, этот драйвер не будет поддерживать новые поколения GPU и DisplayPort. Существующий уровень функциональности на уже поддерживаемых видеокартах сохранится.

Пользователям новых видеокарт NVIDIA рекомендуется до установки проприетарного драйвера пользоваться драйвером vesa.

Такое решение вызвано тем, что nv предоставляет возможности, не сильно превышающие предоставляемые драйвером vesa, а поддержка аппаратного ускорения расширения Render, необходимого современным графическим приложениям, привела бы к нежелательному распылению усилий разработчиков, которые в настоящий момент задействованы в работе над проприетарным драйвером.

>>> Подробности

★★★★★

Проверено: maxcom ()
Последнее исправление: no-dashi (всего исправлений: 1)
Ответ на: комментарий от devnullopers

> «мощная видеокарта» = «ресурсоемкие игры под винду»

Да. Потому что чаще всего так и бывает.

Deleted
()
Ответ на: комментарий от rtvd

> Вкратце, он переносит часть нагрузки с CPU на GPU. А так - википедия в помощь.
Это на вики так написано? На данный момент он переносит часть нагрузки, которую сам и создает. И я уже не говорю о том, что часть ее таки еще и ложиться на CPU.

nikotyn
()
Ответ на: комментарий от nikotyn

А если к этому добавить, что включение компиза ломает привычное поведение рабочего стола и добавляет кучу новых шоткатов, часто пересекающихся с уже имеющимися в приложениях...

BlackV
()
Ответ на: комментарий от nikotyn

>> Вкратце, он переносит часть нагрузки с CPU на GPU. А так - википедия в помощь.

На данный момент он переносит часть нагрузки, которую сам и создает. И я уже не говорю о том, что часть ее таки еще и ложиться на CPU.

Тонко. Вроде бы не согласился, а на самом деле ничего другого и не сказал.

anonymous
()
Ответ на: комментарий от devnullopers

>даже если ваш уберкусоктекстолита будет сто тыщ долларов, без нормальных дров оно накуй не нужно. так что, хоть 5970, хоть 10050070, один хрен, 8800 будет работать лучше

Вот как раз есть результаты тестов GTX 295, GTX 275, GTS 8800 512 Mb и HD 5870 в Unigine Heaven под линуксом:

http://global.phoronix-test-suite.com/?k=profile&u=anon-19649-10094-27624

http://global.phoronix-test-suite.com/?k=profile&u=skynix-9542-23690-8901

http://global.phoronix-test-suite.com/?k=profile&u=anon-11350-8303-21366

В частности видно, что у GTX 295 работает только 1 карта из двух (вот он хваленый Nvidia blob), а GTX 275, GTS 8800 512 Mb отстают от HD 5870 в соответствии со своими мощностями как и положено. На низких разрешениях 275 быстрее, потому что пока Unigine Heaven использует только 1 ядро процессора и нам том компьютере тактовая чистота проца выше.

В 5-й серии пока не починили баг с правильным отображением ускорения видео h.264, хотя оно уже работает. Но вот с 3D у новых карт ATI под линуксом полный порядок.

anonymous
()
Ответ на: комментарий от BZFLATER

В открытых дровах, что а ати, что у нвидии ogl4 пока даже в планах не значится. В закрытых у обоих ogl 3.2, плюс амд представила бета драйвер с поддержкой ogl4 для hd5xxx и ogl3.3 для hd3xxx+, нвидия же только-только представила железо с поддержкой нужных для ogl4 фитч.

BlackV
()
Ответ на: комментарий от nikotyn

>> Вкратце, он переносит часть нагрузки с CPU на GPU. А так - википедия в помощь.

Это на вики так написано? На данный момент он переносит часть нагрузки, которую сам и создает. И я уже не говорю о том, что часть ее таки еще и ложиться на CPU.

Боже, какая деградация... Это не возможно объяснить даже ЕГЭ.

Ну и какую (заметную) нагрузку на CPU он создает?

На вики описан принцип работы софта такого типа.

Для тех, кто прогуливает уроки информатики - дополнительное домашнее задание: «Сравнить алгоритмы поведение оконной системы при перетаскивании окна в случае с компизом и без. Рассмотреть случай, когда рюшечки и свистелочки выключены».

Для злостных дебоширов - подсказка: в случае без компиз приходится перерисовывать изображение, что раньше закрывалось перемещаемым окном. Для этого приходится слать кучу «событий» окнам снизу и просить их себя перерисовать. Это создает нагрузку на CPU. В случае с компиз этого гемора нет, т.к. изображение окон снизу уже лежит в текстурах на стороне видеокарты. CPU просто шлет пару команд видеокарте и та уже напрягается, собирая картинку.

Впрочем, фанатикам ATI этого не понять. У них либо старое железо, что даже DVI не тянет, либо новое, что не поддерживает даже composite extension. :-)

rtvd ★★★★★
()
Ответ на: комментарий от rtvd

Несколькими страницами назад я был фанатиком nvidia, теперь ati...

Олл райт. Сейчас у меня включен композит, выставлена опция «аппаратная отрисовка», и я просто двигаю окно — загрузка процессора 35%. Выключаю композит — 25%.

Тонко. Вроде бы не согласился, а на самом деле ничего другого и не сказал.

Вся разница в том что я согласен как оно теоретически должно быть, только еще не забываю о том в каком оно все сейчас состоянии на практике.

nikotyn
()
Ответ на: комментарий от nikotyn

> Олл райт. Сейчас у меня включен композит, выставлена опция «аппаратная отрисовка», и я просто двигаю окно — загрузка процессора 35%. Выключаю композит — 25%.

Your mileage may vary. У меня на практике без compiz при перетаскивании окна четко видно потуги отрисовать то, что было под ним. Процесс выглядит дерганно и убого. С включенным compiz процесс идет гладко, никаких артефактов не видно. Загрузка процессора (даже на стареньком ноуте с старой нвидиа) - порядка 1%.

rtvd ★★★★★
()
Ответ на: комментарий от Reset

> Дохлый amd'шный проц, памяти всего гиг, матрица с низким разрешением. Типичная негодная дешевка. Только в такое линух и ставят.

Мне АМДшки нравятся... Мозгов - два гига, матрица 1280х800... Это же ноут, он для посерфить-попечатать :)

dpkg ★★★★
()
Ответ на: комментарий от devnullopers

Не путайте специализированную карту и игровую.

X10Dead ★★★★★
()
Ответ на: комментарий от nikotyn

>Вся разница в том что я согласен как оно теоретически должно быть, только еще не забываю о том в каком оно все сейчас состоянии на практике.

Как уже сказали, это твое личное состояние на практике. У меня компиз тоже дает заметный положительный результат.

anonymous
()
Ответ на: комментарий от BabboNataled

> мне пох на граматику. я выше ее.

ха хааааа, ну и чучело!

anonymous
()
Ответ на: комментарий от anonymous

>Если учесть, что 32-битные x86 не выпускают несколько лет, то невелико достижение.

80386 не так уж давно выпускать перестали.

arkhnchul ★★★
()
Ответ на: комментарий от Sith

Там же написано, что «с 1 апреля» :) А так да, если Nvidia задумает 2-х чиповую карту на базе Fermi, то она как минимум должна будет комплектоваться водяным охлаждением и блоком питания 1,5 кВт. Жрать энергию будет как электрочайник и стоить как паровоз :)

anonymous
()
Ответ на: комментарий от anonymous

Кстати, если они ее выпустят с СВО - это и будет электрочайник :). Тогда она должна будет еще комплектоваться расширительным бочком, паровозным свистком, чтобы стравливать пар, заливной горловиной, чтобы восполнять испарившуюся жидкость, и значком для пользователя «Заслуженный кочегар» :D

anonymous
()
Ответ на: комментарий от anonymous

Там же написано, что «с 1 апреля»

анонимуса не провести ;)

А так да, если Nvidia задумает 2-х чиповую карту на базе Fermi...

тут согласен ;)

Sith ★★★★★
()
Ответ на: комментарий от BZFLATER

> Прескотт 2 - емнип самое последнее из ядер для 4 пня. :)

Нет. Presler и Smithfield. Первые и единственные двуядерники на базе P4.

tx
()
Ответ на: комментарий от anonymous

> К логопеду, быдло!

К стенке, задрот. Раком. И грызи батарею.

anonymous
()
Ответ на: комментарий от los_nikos

199х была мода на постапокалиптические фильмы, всякие громадные монополии, тюрьмы размерами с города, милитаризованная полиция и т.д. и т.п.


Можно пару-другую примеров фильмов ? Хочу посмотреть.

anonizmus
()
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.