数码之家

 找回密码
 立即注册
搜索
查看: 596|回复: 0

[业界] 亚马逊推出Inferentia芯片 提升AWS推理计算效益

[复制链接]
发表于 2019-12-4 12:01:10 | 显示全部楼层 |阅读模式
在 re:Invent 大会上,AWS 不仅宣布了 SageMaker Studio 机器学习集成开发环境,还推出了 Inferentia 芯片。去年首次宣布的该芯片,能够加速机器学习的推理计算。在 Inferentia 芯片的加持下,研究者可较之前预先训练过的模型带来更明显的提速、且更具成本效益。

(图自:AWS

AWS 首席执行官 Andy Jassy 指出:许多企业都在模型训练的定制芯片上投入了大量精力,尽管常规 CPU 上已经能够较好地执行推理运算,但定制芯片的效率明显更高。

与 EC4 上的常规 G4 实例相比,Inferentia 能够让 AWS 带来更低的延时、三倍的吞吐量、且降低 40% 单次的成本。

(截图 via AWS

新的 Inf1 实例,可实现高达 2000 TOPS 的特性、与 TensorFlow、PyTorch 和 MXNet 集成、且支持可在框架之间迁移的 ONNX 模型格式。

目前其仅可在 EC2 计算服务中使用,但 AWS 将很快为其引入对 SageMaker 机器学习和其它容器服务的支持。

本文来源:CnBeta



本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

x
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

APP|手机版|小黑屋|关于我们|联系我们|法律条款|技术知识分享平台

闽公网安备35020502000485号

闽ICP备2021002735号-2

GMT+8, 2024-4-26 15:42 , Processed in 0.187201 second(s), 10 queries , Redis On.

Powered by Discuz!

© 2006-2023 smzj.net

快速回复 返回顶部 返回列表