На днях исследователи технологической корпорации Intel совместно с Калифорнийским университетом опубликовали отчёт о разработке нового метода генерации кадров в играх с помощью искусственного интеллекта. Их алгоритм G-buffer Free Frame Extrapolation (GFFE) может, по словам создателей, принципиально изменить подход к технологии рендеринга, применяемой в современных видеокартах.
Системы генерации кадров, такие как DLSS от NVIDIA и FSR от AMD, за последние годы стали распространённым способом улучшения производительности в видеоиграх. Они используют искусственный интеллект для создания промежуточных кадров, но ключевая проблема таких технологий — увеличение задержки отклика из-за необходимости анализа нескольких кадров перед их отображением:
Новый алгоритм GFFE, представленный Intel, работает иначе. Вместо хранения двух отрендеренных кадров в очереди, как это делают текущие технологии, GFFE использует историю предыдущих кадров для генерации нового. Это исключает необходимость задержки, так как новые кадры добавляются к уже отрендеренным в реальном времени. Алгоритм достаточно быстр: на создание одного кадра в разрешении 1080p требуется всего 6,6 миллисекунды.
Важным преимуществом GFFE также является возможность интеграции на уровне драйверов, без необходимости изменения движка игры. Технология не требует доступа к буферам движения или векторов, что делает её более универсальной и удобной для внедрения в существующую экосистему.
Разработки Intel и Калифорнийского университета открывают перспективы для дальнейшего развития технологий рендеринга. С учётом выхода новых видеокарт и возможной интеграции GFFE, конкуренция среди крупных игроков, таких как NVIDIA и AMD, может выйти на новый уровень. Хотя кадры сгенерированные ИИ всё ещё остаются неточными в плане отклика на действия игрока, их временное использование в динамичных сценах остаётся практически незаметным. В будущем такие технологии могут стать стандартом для повышения производительности игр без ущерба для качества и удобства.