|
芯片大厂Marvell今天官宣和英伟达组了个"技术CP",要把NVLink Fusion这个黑科技装进自家定制云平台。这波操作直接让AI训练场的网速飙到1.8TB/s——相当于每秒钟能传完45万部高清电影!
老司机们都知道,现在训练AI大模型最头疼的就是"堵车问题"。传统连接方式就像早高峰的北京三环,再强的算力卡在传输环节都白搭。这次两家搞的NVLink Fusion技术,本质上就是给数据中心装了条专用高速公路,让Marvell家的定制XPU芯片和英伟达的GPU能像坐磁悬浮列车一样疯狂交换数据。
具体来看这个技术礼包里藏着三件套:能玩转2D/3D堆叠的晶粒间互联技术、支持PCIe Gen7的高速通道,还有定制版高带宽内存(HBM)。最狠的是那个1.8TB/s的双向带宽,比现在主流方案快出整整三档,直接让大模型训练从"绿皮火车"升级成"复兴号"。
"现在AI已经不是数据中心的附加功能,而是地基级别的存在。"英伟达加速计算总监Shar Narasimhan在采访中打了个比方,"这就好比要给整栋大楼换承重墙,我们的NVLink Fusion就是那个关键连接件。"
Marvell云平台业务老大Nick Kucharewski透露,他们正在把看家本领全掏出来:从硅光技术到先进封装,从自研SoC架构到芯片级光通信,整套组合拳专治各种AI算力不服。据说某头部云服务商实测显示,新方案能让千卡集群的训练效率提升40%,推理时延直接砍半。
业内人士分析,这波合作其实是给超大规模数据中心发了张"定制通行证"。以前云厂商想搞特殊化定制总要被兼容性拖后腿,现在有了NVLink Fusion这个万能接口,各家可以放心魔改自家XPU,同时无缝接入英伟达的生态系统。
目前该技术方案已进入量产倒计时,首批吃螃蟹的客户预计明年Q2就能用上。随着GPT-5、Claude 4这些"大模型怪兽"即将出笼,这场算力军备竞赛算是提前按下了快进键。
|
本帖子中包含更多资源
您需要 登录 才可以下载或查看,没有账号?立即注册
x
|