|
当游戏玩家还在为显存不足抓耳挠腮时,显卡巨头NVIDIA悄悄掏出了压箱底的"数字瘦身秘籍"。最近流出的RTX神经纹理压缩技术(NTC)测试数据,在硬件圈掀起了轩然大波——这项能让显存占用暴跌96%的黑科技,却意外揭开了性能与效率难以调和的行业伤疤。
事情要从Compusemble实验室的实测说起。技术人员搬出上代旗舰RTX 4090,在1440P和4K分辨率下对NTC技术展开全面体检。当开启"Inference on Sample"模式时,原本272MB的纹理数据竟被压缩到11.37MB,相当于把大象装进火柴盒的魔法。不过这种极致压缩并非免费午餐,帧率表现随即上演跳水表演:在4K分辨率下,开启DLSS时平均帧数从1600帧跌至1500帧,1%最低帧更是从840帧滑向深渊。
有趣的是,这项技术展现出令人困惑的"双重人格"。关闭DLSS采用原生分辨率时,帧率反而逆势上扬,在TAA抗锯齿加持下飙出近2000帧的惊人成绩。这种反常现象暴露出NTC技术对Tensor核心的极致压榨——当AI单元火力全开处理压缩任务时,传统渲染管线反而获得喘息之机。就像马拉松选手突然卸下负重背包,虽然总体速度受限,瞬时爆发力却得以释放。
细看技术脉络,NVIDIA这招堪称三十年磨一剑。自上世纪90年代块截断编码(BTC)统治纹理压缩领域以来,NTC首次实现四倍纹理分辨率的质变突破。更令人意外的是,这项前沿技术竟向下兼容到GTX 10系显卡,甚至对AMD RX 6000系列和Intel Arc显卡也敞开怀抱。这种反常的"技术普惠",让人嗅到行业标准革新的气息。
不过实验室数据也敲响警钟。在4K分辨率下开启协作向量功能时,帧率表现犹如过山车:开启时平均1500帧,关闭后暴跌至650帧。这种剧烈波动揭示出现阶段NTC技术的软肋——就像刚学会走钢丝的杂技演员,平衡杆稍有不稳就会跌落。对于游戏开发者而言,如何在显存节省与性能损耗间找到黄金分割点,将成为未来优化的关键课题。
目前这项技术仍处beta阶段,官方尚未公布具体上线时间。但从GitHub文档透露的蛛丝马迹来看,NVIDIA显然在下一盘大棋。当显存占用这个"数字世界的紧箍咒"即将解除时,游戏开发者或许能放开手脚,打造更具视觉冲击的虚拟世界。只是不知道这份"技术红利",最终会变成玩家显卡上的饕餮盛宴,还是新一轮硬件军备竞赛的导火索?
|
本帖子中包含更多资源
您需要 登录 才可以下载或查看,没有账号?立即注册
x
|