|
甲骨文云(OCI)近日宣布完成全球首批NVIDIA GB200 NVL72液冷机架的部署,数千块Blackwell架构GPU已在其数据中心就位。这套搭载NVIDIA Quantum-2 InfiniBand高速网络和Spectrum-X以太网技术的超级系统,将率先通过NVIDIA DGX Cloud和甲骨文云平台对外开放,为企业开发新一代AI推理模型和智能体提供算力支持。
作为全球增速最快的云服务商之一,OCI正着手构建规模超10万块Blackwell GPU的超级计算集群。这套由36块Grace CPU和72块Blackwell GPU组成的液冷机架系统,不仅打破了单机架算力密度记录,其搭载的NVIDIA全栈软件与甲骨文云数据库的无缝对接,更为大规模AI推理任务提供了低延迟、高能效解决方案。值得注意的是,这套系统已实际应用于自动驾驶研发、芯片设计加速、AI工具开发等多个前沿领域。
不同于传统云计算架构,甲骨文此次创新的混合云策略让Blackwell算力触手可及——无论是政府专有云、企业私有数据中心,还是区域云服务商,都能通过OCI Dedicated Region解决方案获得相同等级的基础设施支持。目前已有科技巨头、跨国企业及政府机构计划在该平台上部署关键AI业务。
据甲骨文技术团队介绍,这批液冷机架已正式投入商业运营,相关系统同步接入NVIDIA DGX Cloud平台。在全球AI算力需求激增的背景下(OpenAI等公司近期连续发布多款新型推理模型),这场由Blackwell架构驱动的云服务升级,正在将传统数据中心转型为标准化"AI智造工厂"。
|
本帖子中包含更多资源
您需要 登录 才可以下载或查看,没有账号?立即注册
x
|