|
|
哎呦我去!科技圈儿又搞大事情了!各位搞AI的、玩云计算的、折腾数据中心的老板们,赶紧把手里泡面放下!超微电脑(Supermicro) 这家专门伺候AI、云计算、存储还有5G/边缘计算的“全能IT老管家”,今儿个(2026年1月12日) 正式官宣:跟好基友 英伟达(NVIDIA) 深度捆绑,把自家生产线和 液冷(Liquid-cooling) 绝活直接升级扩容!目标就一个:抢在所有人前面,把基于 NVIDIA Vera Rubin 和 Rubin 两大新平台的、能塞满整个数据中心的超级解决方案,第一个端到客户面前!
为啥超微这么有底气?人家跟英伟达那是穿一条裤子的铁杆兄弟,搞联合开发那叫一个麻溜儿!靠着这层关系,超微拍胸脯保证:旗舰级的 NVIDIA Vera Rubin NVL72 超级集群(SuperCluster) 和 NVIDIA HGX Rubin NVL8 系统,咱都能以闪电速度给你部署到位!这速度,别人真追不上!
超微的看家本领是啥?就是那套 “数据中心积木大法”(Data Center Building Block Solutions, DCBBS)!这玩意儿厉害在哪?生产流程贼顺溜、定制选项多到爆、部署速度快如风! 客户想搭下一代AI基础设施?用超微这套“积木”,妥妥赢在起跑线上,竞争力直接拉满!
超微的掌门人老梁(Charles Liang) 放话了:“咱跟英伟达那是老交情了,再加上咱这灵活得像泥鳅的‘积木大法’,别人还在实验室里捣鼓呢,咱已经把最尖端的AI平台送上市了!现在咱生产线扩大了,液冷技术更是行业扛把子,就是要让那些搞超大规模计算的(Hyperscaler)和企业大佬们,能用最快的速度、最高的效率、最稳的节奏,大规模铺开基于 NVIDIA Vera Rubin 和 Rubin 平台的基础设施!” 这话说的,硬气!
下面咱唠唠这次的重磅“硬菜”是啥玩意儿:
NVIDIA Vera Rubin NVL72 超级集群(SuperCluster) - 这货是“柜级”的怪兽!
把 72块 NVIDIA Rubin GPU(显卡)、36颗 NVIDIA Vera CPU(处理器)、NVIDIA ConnectX-9 SuperNIC(超级网卡) 和 NVIDIA BlueField-4 DPU(数据处理器) 这些狠角色,用 NVIDIA NVLink 6(第六代超高速互联技术) 拧成一股绳,整成一个巨能打的统一平台!
想搞更大规模?没问题!用 NVIDIA Quantum-X800 InfiniBand 或者 NVIDIA Spectrum-X Ethernet(以太网) 往外扩展就完事了,专门给AI工业革命添柴加火!
性能猛成啥样? 算力 3.6 exaflops NVFP4(天文数字级别的浮点运算能力)、内存带宽 1.4 PB/s HBM4(快得飞起)、高速内存容量 75 TB(海量!)。
这巨无霸是基于 英伟达第三代 MGX 机柜架构 造的,主打一个 好修、靠谱、不容易趴窝(高可靠性、高可用性)。
超微给它配了啥?升级版的数据中心级液冷技术全家桶! 里面包括 行级冷却液分配单元(in-row Coolant Distribution Units, CDUs)。这玩意儿牛在哪?能用 温水进行可扩展的冷却操作,最大程度省电省水,同时把机器的密度和效率顶到天花板!
2U 液冷 NVIDIA HGX Rubin NVL8 系统 - 个头小,能量大!
别看它只有 2U 高(标准机柜里占俩格子),里面可是塞了 8块 GPU!专治各种 AI 和 高性能计算(HPC) 的疑难杂症,给企业搞大规模智能化提供 突破性的性能和效率!
性能参数亮瞎眼: 算力 400 petaflops NVFP4、内存带宽 176 TB/s HBM4、NVLink 带宽 28.8 TB/s、网络速度 1600 Gb/s(用的是 NVIDIA ConnectX-9 SuperNIC)。
超微玩这套路也很溜:整柜设计,部署灵活度拉满! 配置选项多到你挑花眼,完美支持旗舰级的 x86 CPU,比如下一代 英特尔至强(Intel Xeon) 或者 AMD 霄龙(AMD EPYC) 处理器。
还有个 高密度 2U 母线排设计 的选项,能让你机柜塞得更满、更高效!这玩意儿集成了超微看家的 高级直接液冷(Direct Liquid Cooling, DLC) 黑科技,稳!
NVIDIA Vera Rubin 平台还有啥独门秘籍?
NVIDIA NVLink 6: 超高速互联!让 GPU 和 GPU 之间、CPU 和 GPU 之间“唠嗑”快到飞起,专门伺候那些巨无霸的 专家混合模型(Mixture-of-Experts models) 的训练和推理。
NVIDIA Vera CPU: 英伟达自己设计的 定制 Arm 核心!性能比上一代 翻倍!拥有 空间多线程技术(88核/176线程)、1.2 TB/s 的 LPDDR5X 内存带宽(容量大了3倍)、1.8 TB/s 的 NVLink-C2C 带宽 直连 GPU(也是上一代的2倍)!这U,专为伺候GPU而生!
第三代 Transformer 引擎: 专门优化加速处理 长上下文工作负载 和 窄精度计算,对搞定现代AI那些大活儿至关重要。
第三代机密计算(Confidential Computing): 直接给你整柜级别的 机密计算 能力!提供一个统一的、GPU级别的 可信执行环境(Trusted Execution Environment),把你的模型、数据、提示词(prompts)保护得严严实实,跟外界彻底隔离!安全级别拉满!
第二代 RAS 引擎: 高级的 可靠性、可用性和可服务性(Reliability, Availability, Serviceability) 功能,包括 实时健康检查,机器不用停机就能知道哪儿不对劲!
网络这块儿也有大升级!
Rubin 平台还能享受到英伟达刚发布的 NVIDIA Spectrum-X 以太网光子网络(Ethernet Photonics networking)!这玩意儿基于 Spectrum-6 以太网专用芯片(ASIC)(用台积电 3nm 工艺造的,102.4 Tb/s 交换能力,200G SerDes 共封装光模块,全共享缓存)。跟传统的 可插拔光模块(pluggable optics) 比,它 省电 5 倍、可靠性高 10 倍、应用在线时间长 5 倍!可选型号包括:
液冷 SN6800(409.6 Tb/s CPO,512 个 800G 端口)
液冷 SN6810(102.4 Tb/s CPO,128 个 800G 端口)
SN6600(可插拔光模块,128 个 800G 端口,风冷/液冷都行)
存储也不能拖后腿!
超微还准备了基于自家技术的存储解决方案,用 Petascale 全闪存存储服务器 和 JBOF(Just a Bunch Of Flash)系统,跑在 NVIDIA BlueField-4 DPU 上,支持各种花样的 数据管理解决方案。数据喂得饱,AI才能跑得好!
为啥超微敢拍胸脯说“首发”?
人家可是下了血本搞 战略投资 的!扩建厂房、打造 全套端到端液冷技术栈,就是为了一件事:让基于 NVIDIA Vera Rubin 和 Rubin 平台的 全液冷系统,从生产到部署都一样丝滑如那啥!再配上他们那套模块化的 DCBBS 架构,能让你快速配置、严格验证、无缝扩展这些高密度平台。客户想抢 “首发上市” 的优势?找超微就对了!
(消息来源:Supermicro 官方新闻稿,铁板钉钉!)
所以啊,各位搞大模型的、建数据中心的、追AI浪潮的大佬们,眼睛擦亮点!超微和英伟达这波联手,摆明了是要在下一代AI基础设施的牌桌上抢庄!液冷怪兽+首发速度+灵活积木,这王炸组合打出来,市场怕是要变天咯!
|
本帖子中包含更多资源
您需要 登录 才可以下载或查看,没有账号?立即注册
x
|