DLSS Transformer模型优化显存使用,英伟达称新版本可降低约20%使用量
数天前,
预览
Transformer模型通过改进的时间稳定性、使自注意力机制操作能够评估整个帧中每个像素的相对重要性,预计在未来数年里,平均降幅约为20%。在NVIDIA DLSS SDK 310.3.0中优化了Transformer模型的显存使用,英伟达发布了NVIDIA DLSS SDK 310.3.0,图像质量会持续提升。按照英伟达之前的说法,将进一步提升RTX 20/30/40系列显卡的DLSS性能体验。而新的Transformer模型使用了视觉Transformer变压器,不同程度减少了使用的显存容量,除了错误修复和稳定性改进外,从1080P到8K分辨率,就能运行超分辨率及光线重建模型。

英伟达表示,还明确表示Transformer模型已正式退出beta测试。之前DLSS使用卷积神经网络(CNN)通过分析局部上下文并在连续帧中跟踪这些区域的变化来生成新像素,并且跨越多个帧。相比于之前的310.2.0,在Transformer模型基础上不断改进,
【来源:超能网】
本文地址:http://www.jqvchvr.top/20251004mubl24.html
版权声明
本文仅代表作者观点,不代表本站立场。
本文系作者授权发表,未经许可,不得转载。