|
最近AI界出了件大事!国际权威测评机构MLCommons推出两项全新测试标准,专门用来检验各家AI芯片处理复杂任务的速度。这个测评来得很及时——毕竟现在用AI的人越来越多,要是硬件性能跟不上,聊天机器人分分钟变成"树懒模式"。
根据路透社旧金山4月2日报道,自2023年底ChatGPT引爆AI热潮以来,全球芯片企业都在提升硬件处理效率。MLCommons本次推出的两项新测评中,第一项基于Meta最新研发的Llama 3.1大模型,这个拥有4050亿参数的"大脑"需要同时处理问答、数学解题和代码生成等复合型任务。
英伟达拿出了最新款Grace Blackwell服务器应战,这款配备72块GPU的"算力怪兽"表现抢眼。官方数据显示,即便只启用8块新一代GPU,运算速度也比前代产品快2.8到3.4倍。这得益于英伟达重点优化的芯片互联技术——要知道现在运行大型AI模型需要数十块芯片协同工作,内部通讯效率至关重要。值得注意的是,AMD此次未参与4050亿参数级别的测试。
第二项测试更贴近日常使用场景,模拟ChatGPT等消费级AI应用的响应速度。不同于单纯比拼算力,这项测试重点考察系统在保持高准确率的前提下,能否实现毫秒级响应。目前各大厂商都在这个领域持续投入,毕竟用户体验直接决定产品竞争力。
MLCommons公布的完整测试名单显示,除英伟达全系列芯片外,戴尔等整机厂商也提交了自家方案。从测试结果来看,芯片间的协作效率正成为影响AI性能的关键因素,行业竞争焦点已从单一芯片性能转向系统级优化。
(消息来源:路透社)
|
本帖子中包含更多资源
您需要 登录 才可以下载或查看,没有账号?立即注册
x
|