Собсно столкнулся с тем, что в некоторых сырцах OpenGL-игрушек для attribList значения GLX_RED/BLUE/GREEN_SIZE указываются единицей, хотя логично указывать по 8 бит(в сумме 24битный цвет). Для GLX_DEPTH_SIZE тоже указывают 1, но вроде карточки работают с глубиной в 16 или 24 бита. В общем вопрос - какой вариант правильный, и как вы получаете VisualInfo? :) Просто возникла такая трабла, что при использовании 8-бит на "размеры" цвета, и перебор разных значений глубины z-буфера, без проблем все работает на NVIDIA/ATI карточках, но вот некоторые Intel почему-то ничего не возвращают по glXChooseVisual. И пока только догадки, что это происходит из-за "неправильных" значений в attribList.
Ответ на:
комментарий
от undet
Ответ на:
комментарий
от Andru
Ответ на:
комментарий
от undet
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.
Похожие темы
- Форум правильное значение переменной (2023)
- Форум Правильно прочитать значения настроек (2012)
- Форум Steam won't start - glXChooseVisual failed (2018)
- Форум Как правильно через sed поменять значение на значение переменной (2017)
- Форум [python][lxml] Помогите правильно задать значение cssselect() (2011)
- Форум Триггер обрабатывает не правильно значение в Zabbix (2015)
- Форум Как правильно установить значения для Apache Benchmark тестирования? (2017)
- Форум Значение фразы (2016)
- Форум Среднее значение (2012)
- Форум Значение переменной (2011)