|
近日,NVIDIA在数据中心市场又出了新动作,推出了NVLink融合计划。这个计划允许部分合作伙伴将自己的定制芯片接入NVIDIA的硬件体系。举例来说,合作伙伴能够借助NVIDIA提供的900GB/s高速NVLink-C2C接口,将自家研发的CPU与NVIDIA的GPU连接起来。不过,这条"VIP通道"的通行证可不便宜。
NVIDIA牢牢握紧关键技术命脉
参与NVLink融合计划的企业必须接受严苛的条件:所有定制芯片必须与NVIDIA的产品捆绑使用,整个连接系统的核心软件控制权由NVIDIA独家掌握。这种架构导致合作方无法自由组建混合多家技术的异构计算平台。NVIDIA完全掌控着NVLink链路初始化与管理的关键环节——通信控制器和PHY层硬件设计。更关键的是,第三方硬件厂商想使用NVLink交换芯片?必须获得NVIDIA官方授权许可!
科技巨头抱团反击,开放联盟亮剑
面对这般强势操作,AMD、谷歌、英特尔等科技巨头牵头组建UALink联盟奋起反击。2025年4月,联盟正式发布了UALink 1.0技术规范。与NVIDIA的封闭路线截然相反,UALink采用开放标准,支持任意厂商的加速器互连,最大规模可达1024个设备组网。虽然单从原始带宽看,当前NVIDIA的NVLink保持领先(NVLink-C2C达900GB/s,UALink 1.0为600GB/s),但UALink的核心竞争力在于灵活性和性价比优势。
据业内消息,总计8家公司对NVIDIA的NVLink融合计划表示了合作意向。这套方案表面诱人却暗藏隐忧——由于NVIDIA没有开放物理层通信细节,合作伙伴的设计优化空间严重受限,系统效率和性能往往达不到理论最佳值。当然精明的商业伙伴们心知肚明,项目启动前NVIDIA就提前告知了技术限制条款。
云巨头吞下苦果,算力之争棋至中盘
业界盛传亚马逊AWS、谷歌云GCP、微软Azure等头部云服务商也在这8家企业名单中。这些云计算巨头在"性能渴求"与"技术主权"之间无奈地选择了前者——即便获得的技术文档有限,也要咬牙吞下这颗合作苦果。毕竟NVIDIA在AI加速领域的IP储备和性能表现,短期尚无法被完全替代。
这场数据中心底层连接标准战已全面打响,一边是NVIDIA用技术壁垒筑起护城河,另一边是产业联盟试图重构开放生态。这场无声战争的结果,或将决定万亿美元AI市场的未来格局。开放与封闭的较量仍在继续,云巨头们看似选择了妥协但从未放弃博弈——当UALink生态走向成熟之际,或许就是天平倾斜之时。(资讯来源:DigiTimes)
|
本帖子中包含更多资源
您需要 登录 才可以下载或查看,没有账号?立即注册
x
|