В настоящее время я изучаю OpenGL и столкнулся с необычным поведением при тестировании глубины. В основном я занимаюсь разработкой на своем ПК с видеокартой Nvidia, а иногда и на Microsoft Surface Gen 7 с графикой Intel Iris Plus. На этих устройствах моя программа работает должным образом.
Однако недавно я начал использовать Lenovo ThinkPad с Intel UHD Graphics 620 и заметил, что одна и та же программа корректно отображает только один из десять раз. Я обнаружил, что если я отключу тестирование глубины, программа будет отображать каждый раз, но неудивительно, что теперь она неправильно отображает объекты, которые должны быть скрыты другими. Я очищаю бит глубины перед каждым вызовом отрисовки.
Кто-нибудь еще сталкивался с этой проблемой или есть какие-либо предложения относительно того, что может быть причиной такого непоследовательного поведения при рендеринге?
Подробнее здесь: https://stackoverflow.com/questions/785 ... t-graphics
Несогласованное поведение рендеринга при тестировании глубины OpenGL на разных видеокартах ⇐ C++
-
- Похожие темы
- Ответы
- Просмотры
- Последнее сообщение
-
-
Несогласованное поведение между функцией Python и отладчиком VS Code для поиска области.
Anonymous » » в форуме Python - 0 Ответы
- 6 Просмотры
-
Последнее сообщение Anonymous
-