LINUX.ORG.RU

Есть вопросы к разработчикам драйверов NVIDIA? Задавайте!

 ,


0

0

Если у вас есть какие-либо вопросы (не относящиеся к технической поддержке) о Linux и NVIDIA, вы можете их задать самим разработчикам. На сайте Phoronix будет проводиться сессия вопросов-ответов, посвященная графическим драйверам NVIDIA. Задавайте свои вопросы на форуме.

>>> Подробности

★★★

Проверено: maxcom ()
Ответ на: комментарий от dhameoelin

>> VirtualBox

> а она не пересобирает ли драйвер при обновлении ведра??

Автоматически в Gentoo этого не происходит. Обновил ядро — вручную обнови пакет (можно автоматизировать, но лень, я ядро редко меняю). Но иногда и старый модуль vboxdrv работает нормально.

question4 ★★★★★
()
Ответ на: комментарий от linuxfan

> Если ты так бережешь батарею на ноуте, на кой черт тебе там сдалось 3D, которое очень быстро скушает твою батарейку?

Когда нужно 3D, можно подключить к сети. Когда нужно время работы, можно всё поотключать.

>> Примеры?

> Используй гугель.

В основном, находит людей, путающих гнёзда USB и Firewire. Не будь пустобрёхом, давай примеры.

question4 ★★★★★
()
Ответ на: комментарий от simplexe

последний это какой? на открытых УРТ бегает?у меня крашится. гайд не подкинешь ))

Homeboy
()
Ответ на: комментарий от linuxfan

> Можешь пролить свет на DRI?

Да запросто: библиотека общеиспользуемых функций -> специфичный для железки драйвер -> прослойка с общим API. Не вижу в таком подходе абсолютно ничего плохого, т.к. вся специфика работы для разных видеокарт помещается в сам драйвер, скрываясь при этом от пользователей API.

> Это все дико костыльно, потому как ядро должно каким-то образом известить иксы о необходимости повторной инициализации оборудования. KMS в первую очередь призван решить эту проблему.

Т.е. вы сами признаёте решение от NVIDIA костыльным?..

> А видеорежимы и из юзерспейса замечательно переключаются.

Ага, через RandR. Который NVIDIA тоже поддерживает через не скажу какое место.

> Видимо, у меня другое представление о значении слова "работает".

Под "работает" я понимаю успешное использование этого драйвера в известных дистрибутивах.

> Стандарт не меняется. Изменилось поведение, на которое опирались многие. И это плохое изменение.

Ничего плохого в этом не вижу. В ядре тонны изменений поведения, на которое опираются многие. И все эти изменения в результате ведут к совершенствованию кода. И "многие" меняют свой код, чтобы не отставать от процесса разработки ядра. А то, что KDE-шники расплакались из-за kdesu, никоим образом не говорит о "херовой" реализации tty.

> Софт пишут для решения конкретных задач. Если софт не решает эти задачи или решает их неудовлетворительно, такой софт не нужен.

Скажу проще - бинарный драйвер от NVIDIA решает некоторые задачи неудовлетворительно. И сервер X.org решает некоторые задачи неудовлетворительно. Даже ядро Linux решает некоторые задачи неудовлетворительно. Но если вы подумаете головой, то вы поймёте, что это не значит, что весь этот софт не нужен - это значит, что его надо просто совершенствовать. И да, с открытым исходным кодом совершенствование продвигалось бы куда быстрее.

cruxish ★★★★
()
Ответ на: комментарий от atrus

> Да ладно, оставьте вы его.

Наверное, вы правы... ;)

cruxish ★★★★
()
Ответ на: комментарий от madcore

>1. Когда откроют дрова

>2. Когда откроют спецификации железа

Закрытые нвидивские дрова на моей новой 9400GT - единственное чудо за последние несколько лет - они работают так, что я даже перестал вспоминать Кейта Паккарда при виде ядра, Иксов и всего, хоть как-то напрягающего видеокарту.

wyldrodney
()
Ответ на: комментарий от atrus

>> Я бы назвал этот паттерн проектирования "жопой". Суть такова: в центр проекта помещается некая жопа и весь остальной код делается через нее

>Как в операционках. В центр помещают ядро и всю ситсему строят вокруг него. То ли дело было в DOS. Ядро само по себе где-то там, а все остальные стараются работать преимущественно с железом напрямую.

Ну смысл разделения на ядро и юзерспейс в современных ОС в том чтобы обеспечить секьюрити для безопасной многопользовательской работы. Зачем делать многократную перефасовку данных по пути в девайс не совсем понятно: Юзерспейс по сути ограничен вызовами xlib или OpenGL. Видеодрайвер должен перехватить все эти вызовы и отфорвардить их в ядро в наиболее естественном виде для ядерной части драйвера, например через сисколл. Если притянуть за уши какий-то универсальный протокол для этого общения с ядром то получится боттлнек для наращивания функционала драйвера на совершенно ровном месте.

Absurd ★★★
()
Ответ на: комментарий от cruxish

>Единая архитектура для работы с видеокартами идеологически является более правильной и позволяет избежать дублирования кода.

Идея правильная. Архитектура и реализация (в виде DRI в XFree/xorg) - тупая. DRI2 - получше, но ненамного.

Led ★★★☆☆
()
Ответ на: комментарий от Led

Оффтоп конечно, но раз человек просит

>[linuxfan]Лол. Я в варкрафт играл на Riva TNT2. В линуксовую демку 2004 анрила играл на той же риве.

>[linuxfan]Про контру даже не говорю -- там графика такого "высокого" уровня, что и ривы ей будет много.

Ну и? У меня была Riva TNT 2 (16 mb) и на ней тоже шёл Warcraft III. Eсли ты не понял, то данные примеры для fglrx были исключительно для того, чтобы ещё раз опровергнуть вышесказанные тобой утвеждения насчёт стабильности родных дров и ещё раз напомнить о том, что было тебе сказано другим пользователем: "Не путайте радеонщиков со своей больной фантазией."

Далее...linuxfan, опять же твои слова:

>[linuxfan]История не терпит сослагательного наклонения, зато есть факт: спецификации открыты, работающих драйверов нет.

>[linuxfan]На примере радеонщиков наглядно видна импотенция т. н. "комьюнити", которое "напишет все в лучшем виде, только откройте код и спеки".

, снова ничем не подкреплённые высказывания. А поскольку ты, по твоим же словам, "всю сознательную жизнь был счастливым пользователем Nvidia", то может скажешь откуда такие сведения и "примеры радеонщиков"? Уж не собственный ли опыт попытки заставить драйвера от ATI работать на видеокартах NVIdia, с последующим разочарованием (насчёт таких попыток я шучу конечно)? Примеры когда у ненавистных тобой "радеонщиков" всё работает (вот ведь гады!) на проприоретарных драйверах и не глючит (сенсация! сенсация! :) тут уже приводились неоднократно.

В довершение, ты так же писал:

>На fglrx множественные проблемы со стабильностью/3D/Xvideo, на открытых драйверах проблем с 3D практически нет в силу практически полного отсутствия 3D. >Вот когда что-то серьезное запустят на открытых драйверах (UT 2004, Doom3/Quake4) -- тогда и можно будет говорить, что "комьюнити осилило".

Что там про полное отсутствие 3D? Кто там что не осилил? (смотри ниже)

>Тильда, stat fps on и скриншот сюда. А мы поулыбаемся на 20 фпс (это оптимистичный прогноз, кстати).

по поводу твоего оптимизма

>Доктор: Мальчик, а сколько тебе лет?

>Мальчик: Скоро шесть будет.

>Доктор: Ух ты, какой оптимист!

Как просил вот те пару скриншотов:

настройки - http://i072.radikal.ru/0909/71/3fec7ff6f595.jpg

карта: http://s44.radikal.ru/i103/0909/15/fcbc2ae2ddc4.jpg http://s04.radikal.ru/i177/0909/82/ea7d26e24407.jpg

Это на amd athlon xp 2500+ (1.83 GHz), Radeon 9800 Pro (128 mb), 1 Gb Ram (Linux 2.6.30-gentoo-r4) и к вопросу что там по твоим заверениям не осилило комьюнити. Напомню, что драйвера открытые, поддержка видеокарты производителем прекращена этим летом, поэтому для них на fglrx выдать картинки не могу). А вообще fps в завсимости от сцены и динамики скачет от 25 до 120, обычно держась в районе 50-60 (что на мой взгляд для открытых дров неплохо и без лагов играть можно).

Предвидя, как ты сейчас будешь радоваться, что твоя видокарты выдала под 500 fps, напомню, что GeForce 8800GT была выпущена весной 2007 года, а Radeon 9800 pro весной 2003 (4 года разница, не удивительно что призводительность с того момент выросла - кто ж знал что такое случится ? :) - на тот момент прямым конкурентом последней считалась FX 5800 Ultra, и их производительность в UT2003 (да в ней, а не в UT004) была одинаковой, и на проприоретарных дровах (под windows, какое бы отношение у тебя к разным тестам не было) они обе показывали по 170 fps (в режиме 1024х768).

В следующий раз всё же подкрепляй свои слова фактами, а не бурной фантазией.

А так конечно хочется, чтобы всё дальше совершенствалось (как у ATI, так и у NVidia) и скорость оперативности и полнота поддержки только росли.

grem ★★★★★
()
Ответ на: комментарий от cetjs

> Уже есть.

Где?
> cat /usr/ports/x11/nvidia-driver/Makefile
...
PORTNAME= nvidia-driver
DISTVERSION?= 185.18.29
PORTREVISION?= 0 # As a reminder it can be overridden
CATEGORIES= x11 kld
MASTER_SITES= ${MASTER_SITE_NVIDIA}
MASTER_SITE_SUBDIR= freebsd/${DISTVERSION}
DISTNAME= NVIDIA-FreeBSD-x86-${DISTVERSION}

MAINTAINER= danfe@FreeBSD.org
COMMENT= NVidia graphics card binary drivers for hardware OpenGL rendering

ONLY_FOR_ARCHS= i386
...

iZEN ★★★★★
()
Ответ на: комментарий от iZEN

Хотелось бы, чтобы NVidia наконец-то поделилась спецификациями с разработчиками nouveau (и оказывала более активное содействие), 3D поддержка в открытых драйверах уж точно не помешает (как известно nv такую поддержку не обеспечивает), так как их наличие (открытых) драйверов помогло бы разработке других новых приложений, пока NVidia тестирует, оттачивает и просто пишет новые версии собственных драйверов.

Планирует ли NVidia вообще поддерживать сторонние разработки драйверов для обеспечения 3D ускорения?

grem ★★★★★
()
Ответ на: комментарий от atrus

>Но хаки тяжелы в поддержке и имеют тенденцию накапливаться. У него сегодня нвидия "просто работает", завтра "просто работает", после завтра он будет плакать горючими слезами.

На всякий случай напоминаю, что нвидия работает уже чуть более 9 лет.

linuxfan
()
Ответ на: комментарий от cruxish

>Да запросто: библиотека общеиспользуемых функций -> специфичный для железки драйвер -> прослойка с общим API.

То есть драйвер в итоге сидит в юзерспейсе? Ведь DRI -- это такой специальный хак для предоставления доступа к ресурсам видеокарты (в основном, к видеопамяти) из юзерспейса? Я тут просветился немного...

>The 3D capabilities of a graphics card are accessed through the 3D DRI driver. This driver essentially converts OpenGL command sequences into hardware commands. It then uses the kernel module to transmit the commands to the hardware. The 3D driver and kernel module basically implement the entire OpenGL rendering pipeline. The 3D driver implements as much of it as possible in user space while the kernel module does whatever is needed in kernel space.

Звучит не очень обнадеживающе: непонятно, где проходит граница между тем, что должен делать компонент ядра и тем, что должно делать юзерспейсное приложение. Подозреваю, что такие вещи сильно завязаны на архитектуру железок, а она у разных производителей разная.

>Т.е. вы сами признаёте решение от NVIDIA костыльным?..

Этого "решения от NVIDIA" просто нет. Пока S3/S4 работают одинаково костыльно на всех видеокартах.

>Ага, через RandR. Который NVIDIA тоже поддерживает через не скажу какое место.

Через какое же? Я как-то баловался -- замечательно экран поворачивался.

>В ядре тонны изменений поведения, на которое опираются многие.

И если в один прекрасный момент read на конце файла будет возвращать не 0, а -1, то произойдет катастрофа. Поведение, которое не менялось уже 15 лет правильное, и точка. Линус абсолютно прав.

>Скажу проще - бинарный драйвер от NVIDIA решает некоторые задачи неудовлетворительно.

Хотелось бы увидеть список задач, на которых открытый nv или noveau показывают себя лучше закрытого драйвера. У меня, помнится, даже четкость картинки с nv была хуже на LCD мониторе.

linuxfan
()
Ответ на: комментарий от grem

>А вообще fps в завсимости от сцены и динамики скачет от 25 до 120, обычно держась в районе 50-60 (что на мой взгляд для открытых дров неплохо и без лагов играть можно).

А вообще fps скачет в зависимости от объемов открытого пространства и 120 будет только если в темном углу уткнуться носом в пол. Раз за комьюнити, которое за 2009-2003=6 лет таки осилило допилить драйвер до состояния, когда можно полюбоваться текстурами стен на приемлемом fps при средних настройках. Темпы разработки как бы говорят нам, что фанатики, вопившие зимой: "Моей следующей картой будет ATI!" --, пожалеют не один раз.

linuxfan
()
Ответ на: комментарий от linuxfan

>Раз за комьюнити, которое за 2009-2003=6 лет таки осилило допилить драйвер до состояния, когда можно полюбоваться текстурами стен на приемлемом fps при средних настройках. Темпы разработки как бы говорят нам, что фанатики, вопившие зимой: "Моей следующей картой будет ATI!" --, пожалеют не один раз.

ты опять здесь? ты уже написал драйвер для моей железки без спек и сэмплов? нет - пнх. и да, при следующих высерах о сроках разработки, скажи сколько лет из озвученных (и сопровожденных пузырями в луже) тобой шести доступны спецификации на _все_ чипы.

registrant ★★★★★
()
Ответ на: комментарий от linuxfan

>А вообще fps скачет в зависимости от объемов открытого пространства и 120 будет только если в темном углу уткнуться носом в пол. Раз за комьюнити, которое за 2009-2003=6 лет таки осилило допилить драйвер до состояния, когда можно полюбоваться текстурами стен на приемлемом fps при средних настройках. Темпы разработки как бы говорят нам, что фанатики, вопившие зимой: "Моей следующей картой будет ATI!" --, пожалеют не один раз.

Нет, это твои посты "как бы говорят нам", что ты в крайне обострённой форме неадекватно воспринимаешь действительность: http://www.thg.ru/graphic/20041120/geforce-6600gt-agp-01.html#unreal_tourname...

Производительность моей системы (читай выше её описание) соответствует тому что и должно наблюдаться (хоть там nvidia fx 5800 ultra стояла бы) - тут невысокая производительность процессора тоже ограничения накладывает (насчёт утыканий в стену - это снова твоя больная фантазия, в данном случае fps до 250-300 подскочет; я уже писал, что если бегать, то у меня он держится в пределах 50-60).

А "вопившие фанатики" пока могут пожалеть (в плане производительности) разве что в случае, если сейчас купят видеокарту 2003 года выпуска :)

grem ★★★★★
()
Ответ на: комментарий от linuxfan

> Через какое же? Я как-то баловался -- замечательно экран поворачивался.

AFAIK, драйвер NVIDIA даже RandR 1.2 не поддерживает, хотя уже вышла спецификация 1.3.

> Хотелось бы увидеть список задач, на которых открытый nv или noveau показывают себя лучше закрытого драйвера. У меня, помнится, даже четкость картинки с nv была хуже на LCD мониторе.

Долгое время nouveau лидировал по скорости вывода 2D-графики. Потом были проблемы с производительностью композита в KDE. Тогда тоже многие говорили, что проприетарный драйвер NVIDIA не нужен... ;)

cruxish ★★★★
()
Ответ на: комментарий от grem

>Производительность моей системы (читай выше её описание) соответствует тому что и должно наблюдаться

Соответствует? Лол! Провал в производительности как минимум в 3-4 раза при средних настройках, а не в 2, как ты пытаешься тут выставить, потому как средний fps ты снял в темном коридоре, а по приведенной тобой ссылке гонялись на максимальном качестве совсем другие карты и на экране было совсем другое число полигонов.

Процессор на fps влияет крайне низко. Различие в основном ощущается на времени загрузки карты.

В сухом остатке имеем карту шестилетней давности, открытые драйвера которой отстают от проприетарных аналогов в 3-4 раза по производительности. Спеки открыли где-то год назад, значит драйвера 5 лет писались "вслепую", 1 год со спецификациями. Слабый результат, честно говоря.

linuxfan
()
Ответ на: комментарий от cruxish

>AFAIK, драйвер NVIDIA даже RandR 1.2 не поддерживает, хотя уже вышла спецификация 1.3.

Почитай README с нвидийным драйвером. Практика показала, что замечательно все поддерживается: от поворотов экрана до изменения разрешения.

linuxfan
()
Ответ на: комментарий от linuxfan

>Соответствует? Лол! Провал в производительности как минимум в 3-4 раза при средних настройках, а не в 2, как ты пытаешься тут выставить, потому как средний fps ты снял в темном коридоре, а по приведенной тобой ссылке гонялись на максимальном качестве совсем другие карты и на экране было совсем другое число полигонов.

"а ты, малый, не дурак... и дурак немалый" если не в состоянии понять, что те тесты приводились исключительно для сравнения производительности с видеокартой аналогичного класса от nvidia и показать, что их производительности равны для проприоретарных драйверов, а не для сравнения с моей системой :)А уж что проц влияет низко это ты вообще загнул - кто интересно физику расчитывает тогда? - ну да, тут то лишний 1.2 гигагерца (а по "рейтингу амд", а то вдруг будешь настаивать, что я не по номинальной частоте должен сравнивать, +0.7 гигагерца) явно ни на что не повлияют.

А уж если тебе интересна производительность примерно одинаковых карт (да, они опять другого поколения) с проприоретарными драйверами под linux, то можешь глянуть, например, вот эту древнюю статейку: http://www.thg.ru/graphic/linux_game/linux_game-03.html

,тут они тоже как ни странно тоже почти вровень идут в ut2004.

Хотя тебе это, как обладателю раздутого самомнения и исключительной гениальности, будет не интересно.

grem ★★★★★
()
Ответ на: комментарий от linuxfan

>AMD купила ATI, которая уже давно клепает свои говножелезки и пишет к ним говнодрайвера, с которыми горя периодически хлебают и винюзеры.

сынок, ATI-шные железки никогда не были говном, в отличие от мылящих ТНТ и ГоФорсов на больших разрешениях. Как пример моя PCI ATI RagePro давала очень качественную картинку по сравнению с другими, еще в лохматых 90-х годах.

Sith ★★★★★
()
Ответ на: комментарий от k0l0b0k

>у меня только один вопрос - когда они примут участие в формировании вендекапца?

это вы о тех кто недавно рекомендовал использовать Windows CE вместо Linux ?
.......наивный.

Sith ★★★★★
()
Ответ на: комментарий от grem

>тут они тоже как ни странно тоже почти вровень идут в ut2004.

66 vs 105 -- это, конечно, "вровень"! Жги еще!

>тесты приводились исключительно для сравнения производительности с видеокартой аналогичного класса от nvidia

Грешно было с моей стороны не констатировать факт отвратительной производительности свободных драйверов. Кстати, из статьи видно, что на линуксе ATIшные дрова шумно сливают проприетарным аналогам от NVidia.

linuxfan
()
Ответ на: комментарий от Sith

>сынок, <пафосная ностальгия олдскульщика поскипана>

Атец! Ты случайно не из той элитарной секты, что проповедует теплый ламповый звук, на слух различает vorbis -q10 и lossless, ратует за золотые экранированные провода и конденсаторы исключительно на соплях девственниц?

linuxfan
()
Ответ на: комментарий от linuxfan

>Атец! Ты случайно не из той элитарной секты, что проповедует теплый ламповый звук, на слух различает vorbis -q10 и lossless, ратует за золотые экранированные провода и конденсаторы исключительно на соплях девственниц?

нет сынко, у меня свой путь

но судя по вашим неадекватным постам вы явный фанатик из секты нвидии

Sith ★★★★★
()
Ответ на: комментарий от linuxfan

>Радеонщики как посасывали на закрытых дровах, так и продолжают посасывать при открытых спецификациях с воплями: "3D не нужно!", "Быдлоигры не нужны!" и так далее.

всегда удивлялся фанатикам нвидии разводящих срач не только в новостях про АТИ, но и в своей новости тоже. Что же с вами делать - неосиляторами, если на вас доводы и факты не действуют?

Sith ★★★★★
()
Ответ на: комментарий от linuxfan

> Кстати, из статьи видно, что на линуксе ATIшные дрова шумно сливают проприетарным аналогам от NVidia.

Особеннов тех местах, где у nvidia fps падает до значений 3-4 :) Авторы статьи и сами пишут что в среднем fps у nvidia выше, но тут же упоминают, что с задачей обе карты справляются.

Насчёт отвратительной производительности, это ещё посмотреть нужно (я её считаю приемлемой для данной конфигурации) - вот когда представишь результаты для GForce FX 5800 Ultra (на таких же настройках в игре и на проце примерно с 2 ГГц, а не 3-мя как в том тесте под виндой, где ты кстати не признал, что производительность конкурентов была равна), тогда твоё мнение о производительности открытых дров будет подкреплено фактами, а пустыми домыслами и сравнением с 8800 GT, как сейчас.

grem ★★★★★
()

только один вопрос - когда будет нормальный вывод на телевизор? как в винде, одной кнопкой? чтобы смотреть видео поток на весь экран

anonymous
()

Вообще, я весьма удивлён прогрессом свободных драйверов ати. Год назад я, прозанимавшись любовью с HD2400 порядка двух месяцев нон-стоп, испробовав все найденные в гугле методы вплоть до пересборки ядра, купил нвидию и больше с ати старался дела не иметь, ноут тоже купил с нвидией. А недавно решил обновить убунту на ноуте у девушки, которую поставил и настроил как раз около года назад, подобрав версию fglrx, которая тогда заработала более-менее без проблем на mobility radeon X1400 (мерцание видео при определённых настройках вывода, невозможность сделать различные разрешения на мониторе и VGA-выходе и т.п. за проблему не считал). Убунта при обновлении (dist-upgrade) сказала, что fglrx для X1600 больше нет, и поставила открытый драйвер.

И это, скажу я вам, оказалось охуительно. Ускорение OpenGL заработало без бубнов на уровне, достаточном для эффектов kwin и StepMania (большего не требовалось), тогда как раньше не работало на свободном драйвере ни в каком виде вообще, т.е. даже в glxgears. Появилась возможность установить различные разрешения для монитора и VGA (девушка в StepMania играет, подключив ноут к большому ЖК-телевизору). Всё это на Ubuntu Intrepid. Загрузившись с Karmic, я обнаружил, что количество glxgears-попугаев в нём больше на порядок по сравнению с Intrepid - на том уровне, который был с fglrx. (Обновить до него дистрибутив не могу, т.к. на бета-образе нет cdromupgrade) В общем, был приятно удивлён, что на ати можно работать уже не хуже, чем на нвидия. Но покупать всё равно не буду - от шока после форменной двухмесячной ебли не отойду, наверное, очень долго.

anonymous
()
Ответ на: комментарий от anonymous

>на ати можно работать уже не хуже, чем на нвидия

это если только не работать c 3d =)

frame ★★★
()
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.