数码之家

 找回密码
 立即注册

QQ登录

只需一步,快速开始

微信登录

微信扫一扫,快速登录

搜索
查看: 120|回复: 0

[业界] 英伟达宣布 TensorRT AI 推理加速面向 GeForce RTX GPU 开放

[复制链接]
发表于 2025-5-20 20:29:13 | 显示全部楼层 |阅读模式

爱科技、爱创意、爱折腾、爱极致,我们都是技术控

您需要 登录 才可以下载或查看,没有账号?立即注册 微信登录

x
英伟达今日宣布推出 NVIDIA TensorRT for RTX,支持 Windows 11 系统,将为 GeForce RTX 全系显卡提供 TensorRT AI 推理加速框架,速度相当于 DirectML 方案两倍。该框架将于 6 月通过开发者官网正式推送。
技术细节显示,TensorRT 原生兼容 Windows ML 框架, ComfyUI 应用在其中相比 DirectML 倍性能翻倍,而其他应用也有 1.5~1.7 倍的性能表现。
此外,TensorRT 支持即时 GPU 专属优化,推理库文件体积缩减至原有 1/8。
IT之家从官方获悉,英伟达目前已经为超 150 个 AI SDK 提供支持,并承诺本月还将推出 5 个全新的 ISV 集成,包括:
  • LM Studio(最新 CUDA 性能提升 30%)
  • Topaz Video AI(GenAI 视频加速 CUDA)
  • 哔哩哔哩(NVIDIA Broadcast Effects)
  • AutoDesk VRED (DLSS 4)
  • Chaos Enscape (DLSS 4)
英伟达表示:“当前 AI PC 软件生态迫使开发者在广泛硬件支持与高性能优化间抉择。全新 Windows ML 推理框架通过 ONNX Runtime 构建,与各硬件厂商优化的 AI 执行层无缝衔接。针对 RTX 显卡,Windows ML 会自动调用 TensorRT for RTX—— 专为高性能快速部署优化的推理库。相较 DirectML,TensorRT 可为 PC 端 AI 工作负载提供超 50% 的性能提升。”


您需要登录后才可以回帖 登录 | 立即注册 微信登录

本版积分规则

APP|手机版|小黑屋|关于我们|联系我们|法律条款|技术知识分享平台

闽公网安备35020502000485号

闽ICP备2021002735号-2

GMT+8, 2025-7-19 10:37 , Processed in 0.156000 second(s), 10 queries , Redis On.

Powered by Discuz!

© 2006-2025 MyDigit.Net

快速回复 返回顶部 返回列表