|
这两天硅谷的OCP全球峰会简直成了服务器圈子的“格莱美颁奖礼”,各家厂商都在秀肌肉。但最让我停下脚步的,是华擎旗下ASRock Rack展台上那台冒着寒气的服务器——它居然用着一种“滴水不沾”的液冷技术,直接把芯片降温玩了新高度。这玩意儿要是普及开来,以后数据中心可能再也听不到风扇轰鸣了。
第一章:AI算力暴增背后的“发热危机”
现在训练AI大模型就像在数据中心里搞“冶金工业”——一张英伟达B300 GPU全速运转时功耗逼近千瓦级,几十张卡堆在一起,发热量堪比小钢炉。传统风冷散热拿这些“发热怪兽”根本没辙,就像试图用吹风机给火山降温。
所以液冷技术成了必选项,但水冷方案又让人提心吊胆——万一管道漏水,价值千万的服务器集群秒变“海鲜市场”。这也正是华擎这次联手以色列公司ZutaCore的厉害之处:他们搞出了完全无水的直接液冷,用的是一种绝缘不导电的特殊流体,直接喷淋在芯片表面吸热。
第二章:拆解“无水冷”服务器的技术门道
这台型号4U16X-GNR2/ZC的服务器,本质上是个为AI工厂定制的“算力集装箱”。几个关键设计值得细品:
冷却黑科技:ZutaCore的两相液冷技术让流体直接接触GPU芯片,吸热后汽化上升,碰到冷凝器又变回液体,形成自循环
安全牌打满:介电流体具备不导电、不腐蚀特性,就算发生极端泄漏也不会引发短路
兼容性拉满:保持4U标准机箱尺寸,现有数据中心不用改造机房就能轻松部署
华擎rack总裁Weishi Sa现场说得明白:“AI算力不仅要跑得快,更要跑得省。我们的方案能让数据中心PUE值压到1.1以下,比传统风冷省电30%起步。”
第三章:不止概念机,全系列产品线齐发
除了这台炫技的无水冷服务器,华擎还带来了更贴近商用的产品。风冷版本的8U16X-GNR2适合保守派客户,而基于英伟达MGX架构的4UXGM-GNR2 CX8平台更是堆料狂魔——塞进了RTX PRO 6000 Blackwell服务器版GPU、ConnectX-8 SuperNIC网卡,还给BlueField-3 DPU留了扩展位。
特别要提的是英伟达GB300 NVL72系统,这货专门优化大模型推理,能把token处理成本砍掉大半。对做AIGC的企业来说,相当于把单次生图成本打骨折。
第四章:液冷技术背后的产业暗流
选择在OCP峰会首发这款产品,华擎就是冲着开源硬件生态来的。这个由脸书发起的组织现在已成数据中心技术风向标,今年主题恰好撞上“可持续算力”——和华擎的无水冷却方案完美契合。
其实谷歌微软早就开始布局液冷数据中心,因为风冷已经触到物理天花板。但传统水冷又要改造机房又要防漏水,ZutaCore的无水方案算是打了场漂亮的差异化竞争。
第五章:从AI服务器到云托管的全栈布局
华擎这次明显有备而来,展台还摆了针对云服务的OCP服务器。比如那台4OU12N-AM5,在4U空间里塞进12个AMD EPYC4005计算节点,特别受云服务商青睐——相当于用最小空间榨出最大算力。
从展品矩阵能看出华擎的野心:从边缘计算盒子到AI训练集群,从风冷标准机到液冷超级计算机,这是要通吃AI基础设施升级的节奏。
第六章:无水冷却的终极挑战是成本
技术虽炫,但ZutaCore的介电流体每升要价数百美元,是传统冷却液的几十倍。不过华擎透露,对用着上万张GPU的科技巨头来说,靠省下的电费两年就能回本——但中小企业可能还得再等等。
看着展台上那些安静冒冷气的服务器,突然想到个画面:AI发展就像造航天飞机,算力是发动机,散热系统就是耐热装甲。现在发动机越来越猛,散热技术能不能跟上可能真会卡住行业脖子。这次OCP峰会上各种液冷方案争奇斗艳,感觉已经提前预演了未来十年的数据中心战争。不过对普通用户来说,这些技术争斗的最终好处,可能就是以后用ChatGPT时不会老是遇到“系统繁忙”的提示了。
|
本帖子中包含更多资源
您需要 登录 才可以下载或查看,没有账号?立即注册
x
|