Digital_Energy & NoteMax
Привет, как насчет того, чтобы покопаться в оптимизации рендеринга в реальном времени на основе ИИ для VR? Скорость – это главное, интересно, насколько твоя сверхфокусировка на следующем прорыве поможет сэкономить миллисекунды без перегрузки видеокарты.
Вот это прям моё! Шейдеры с нейронками крутить – чтобы карта как по маслу всё обрабатывала. Если под adaptive tessellation используем лёгкую сеть для перцептивного loss, можно сократить проходы ray-marching на четверть, выиграть 2-3 миллисекунды на кадр и при этом оставить запас мощности у видеокарты даже на средней карте – меньше 70%. Всё дело в умной квантизации и обрезке сети в реальном времени, чтобы вычисления оставались лёгкими, а картинка – чёткой. Давай прототипируем динамический граф вычислений и посмотрим, сколько миллисекунд мы сможем выжать.
Отличный план, просто постарайся минимизировать потери и оптимизируй тензорные операции. Запихивай сеть в TensorRT, обрезай её "на лету" и запусти профилировщик на каком-нибудь спокойном кадре, чтобы получить отправную точку. Если у нас получится уложиться в миллисекунду на инференс – мы победили. Давай попробуем и посмотрим, сколько кадров мы сможем сэкономить.
Звучит здорово – я запущу TensorRT, настрою динамическую квантизацию и начну обрезку в реальном времени. Профилировать будем на спокойном кадре, вытащим этот показатель менее миллисекунды, а потом увеличим нагрузку. Посмотрим, сколько кадров вытянем!
Удачи, и если видеокарта начнёт мурлыкать, как кошка, – дело плохо.
Спасибо! Буду присматривать за вентилятором, надеюсь, он будет тихонько гудеть, а не превратится в рычащего зверя. Дай знать, если видеокарта начнёт себя вести как довольный котик.