Итак, без особой надежды поднимаю тему об использовании тридцатибитного цвета (он же 10 бит на канал). Благо не так давно дождались поддержки 30 бит для GeForce.
Имеется: карточка GeForce GTX560-TI с DisplayPort’ом, монитор ASUS PA246Q с заявленной поддержкой 30 бит, нестабильный Debian и последние дрова от nVidia (290.45) с желанной опцией. Результат включения. Как я понимаю, режим работает, но опера (и компиз) его не понимают и, видимо, из 10+10+10 бит откусывают свои 8+8+8 на RGB, из-за чего цвета становятся лсдшными и глючит альфа-канал, который вместо 8 бит получает только 6.
Это-то ладно, но я не понимаю, как на практике определить, что остальное выводится в 30 битах. Логично, что должны быть мельче ступеньки в градиентах. Градаций серого при этом должно быть, как я понимаю, 1024 против 256. Тем не менее в GIMP’е я вообще вижу какую-то лабуду — пипетка мне показывает самые невероятные цвета (например, 141314, слегка фиолетовый, хотя заливал строго чёрно-белым) — результат дизеринга, что ли? И я не вижу ступенек даже на картинке 2560×400, залитой горизонтально, хотя там ступеньки должны быть по 10 пикселей шириной, как я понимаю.
Так как же всё-таки проверить работу тридцатибитного цвета? Или ещё пока рано о нём думать?
10 bit, 30 bit, color, displayport, nvidia