数码之家

 找回密码
 立即注册

QQ登录

只需一步,快速开始

微信登录

微信扫一扫,快速登录

搜索
查看: 43|回复: 2

[业界] AI数据中心液冷爆发:渗透率今年冲至33%,英伟达GB200是主推手

[复制链接]
发表于 5 小时前 | 显示全部楼层 |阅读模式
家人们,谁懂啊!AI数据中心的散热现在真的顶不住了,全靠液冷技术来“退烧”!调研机构TrendForce最新消息说,今年液冷在AI数据中心的渗透率要猛增,从去年的不到15%,一下子冲上三分之一——这升级速度比显卡跑AI还快!

背后一大推手就是老黄家的NVIDIA。他们明年要上线的GB200 NVL72服务器,单个机柜功耗居然做到130-140千瓦,传统风冷在这种热量面前简直就像电风扇吹火山——完全不够看!

所以你看,全球各大云服务商都坐不住了,纷纷提前布局液冷方案。不过现在绝大多数用的还是“气液双循环”(L2A)这种过渡方案。毕竟现有数据中心改造不能一步到位,水管电线都不是说换就换的。

但行业里大家都明白,等2025年新一代数据中心陆续上线,更先进的“液液冷却”(L2L)肯定会成为主流。毕竟AI芯片的功耗根本刹不住车,散热效率不提不行。预计从2027年开始,L2L就会大规模上位。

北美四大云厂商(CSP)现在全球到处建新数据中心,从美国到欧洲、再到亚洲,新基地全都预先埋好了液冷管道。谷歌和AWS已经在荷兰、德国、爱尔兰搞起了模块化液冷数据中心。微软也在美国中部和亚洲地区测试自己的方案,还放话:从2025年开始,液冷就是咱家数据中心的“标配”!

这一波液冷兴起,带火的可是一整个产业链。冷却模块、热交换系统、各种零部件——全都迎来新机会。冷板(Cold Plates)作为跟芯片直接贴贴的散热核心,目前主要是Cooler Master、AVC、BOYD和Auras这几家在做。而且因为订单多到爆,除了BOYD之外,另外三家都跑去东南亚扩产了,主要就是伺候好美国的云大佬们。

冷却液分配单元(CDU)相当于整个液冷系统的“心脏”,负责冷却液流动和热量传递。目前常见的有两种:侧装式(sidecar)和列间式(in-row)。侧装式现在市场占比高,带头的是Delta;而列间式性能更强,主要由Vertiv和BOYD供应,特别适合高密度AI机柜。

还有个小东西别忽略——快速接头(QD)。它虽然是连接件,但密封性、耐压性一点不能拉胯,不然漏液就尴尬了。NVIDIA在GB200项目里选的都是国际大厂,像CPC、Parker Hannifin、Danfoss、Staubli这些老玩家,毕竟有认证有案例,用着放心。

总之呐,液冷不再只是“未来科技”,已经真刀真枪上战场了。AI越热,液冷就越火,这行业真是越来越热闹了!

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册 微信登录

x
发表于 5 小时前 | 显示全部楼层
目前AI数据好像全面爆发,到处皆渗透。
回复 支持 反对

使用道具 举报

发表于 5 小时前 | 显示全部楼层
学学科幻片,全部泡冷却液里是最好的散热方案!
回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册 微信登录

本版积分规则

APP|手机版|小黑屋|关于我们|联系我们|法律条款|技术知识分享平台

闽公网安备35020502000485号

闽ICP备2021002735号-2

GMT+8, 2025-8-23 19:56 , Processed in 0.093600 second(s), 6 queries , Redis On.

Powered by Discuz!

© 2006-2025 MyDigit.Net

快速回复 返回顶部 返回列表