|
|
哎,各位网友,咱聊点硬货。这周科技圈的热闹,一半在大阪。对,就是那个有章鱼烧和环球影城的日本大阪。2026年1月26号,也就是这礼拜一,SCA/HPC Asia 2026这场会,技嘉旗下专门搞高性能计算的子公司Giga Computing,不声不响掏了个大家伙出来。
啥东西呢?一台名叫GIGABYTE XN24-VC0-LA61的新服务器。名字是真拗口,但你只需要记住它的内核——它完全建立在NVIDIA那个传说中的GB200 NVL4平台之上。这么说吧,这就好比给一台超级跑车,直接塞进了航天发动机。
这玩意儿可不是出来走个秀的。它一亮相,就被日本理化学研究所的计算科学中心给相中了。理化学研究所?你可能不熟,但他们手底下那台叫“富岳”的超级计算机,前些年可是拿过世界第一的。现在,他们正在捣鼓“富岳”的下一代,名字暂定叫“FugakuNEXT”。而技嘉这台XN24服务器,就是要被整合进这个“下一代”平台里的关键硬件之一,用来探索一个贼超前的领域:量子计算和传统GPU超算的混合计算。意思就是,他们打算用这台机器,加上NVIDIA的CUDA-Q平台,去摸索未来一种既用量子比特又用传统显卡的“缝合怪”超算怎么搞科研。这格局,一下就打开了。
那这台服务器到底牛在哪儿?咱别光看广告,咱看疗效。
首先,它的心脏是NVIDIA GB200 NVL4。这名字听着就复杂,你把它理解成两块NVIDIA自研的Arm架构Grace CPU,和四块最新的Blackwell架构GPU,用超高速内部总线焊死在一起,做成一个超级芯片。光CPU这边就带了480GB的超低功耗内存,GPU那边的HBM3E显存最高能到186GB。这内存和显存的配置,基本上就是为了两件事准备的:一是往死里训练更大、更聪明的大语言模型;二是处理那些对精度和速度要求都高到变态的科学计算模拟,比如模拟气候变化或者新药分子动力学。简单说,它就是为“烧脑”级任务而生的。
其次,它很“冷静”。这么强的性能堆在2U高的机箱里,发热量想想都吓人。所以技嘉直接给它上了直接液冷技术,就是把冷却液直接怼到芯片上循环,散热效率比传统风冷高出一大截。这也不是啥新鲜概念,但在这台机器上成了标配,说明这股“液冷化”的潮流,在AI服务器领域已经不再是可选项,而是必选项了。
再有,它 networking(网络连接)和 storage(存储)的配置也拉满了。支持每秒800Gb的InfiniBand或者400Gb的以太网,用上了NVIDIA最新的ConnectX-8超级网卡,确保一堆这样的机器连成集群时,数据交换快如闪电,没有瓶颈。存储方面,留了12个PCIe 5.0的NVMe硬盘位,速度起飞。还能选配DPU数据处理器,把一些安全和网络任务从CPU、GPU上卸载下来,让它们更专心地干核心计算的活。
你可能会问,这么顶的机器,是不是得整个机房才能配得上?技嘉这次想得挺周到。他们基于NVIDIA的MGX模块化架构来设计这台XN24,意思就是它像乐高一样,具有一定的灵活性和可扩展性。企业或者研究机构可以先买几台用着,不用一开始就规划一个满满的机柜,等后面需求上来了,再慢慢加。这算是降低了顶级算力的尝鲜门槛。
光有一台明星产品还不够,技嘉这次在大阪算是把家底都秀出来了。他们展示了一个从单台服务器到整个机柜的完整解决方案矩阵:
GIGAPOD整机柜方案:一个机柜里,直接集成32台技嘉的GPU服务器,网络和存储都给你优化配置好,买回去插电就能组建一个AI算力“工厂”。这次展出的G4L3系列,是基于NVIDIA HGX平台,用Intel至强处理器,专为大规模语言模型训练这种重体力活准备的。
面向企业的“空气冷却”选手:型号叫XL44-SX2-AAS1,也是基于MGX模块化设计,但用的是风冷。它支持双路Intel至强处理器,能塞进去最多8张给专业工作站用的NVIDIA RTX PRO 6000 Blackwell显卡,适合那些需要强大AI训练和推理,但又暂时不想上液冷的中大型企业。
拥抱AMD和开放标准的节点:TO25-ZU4和TO25-ZU5这两个计算节点,用的是AMD EPYC 9004/9005系列处理器,并且符合脸书等大厂推的OCP ORV3开放机架标准。这明显是冲着那些追求极致定制化和规模效应的超大规模数据中心和云服务商去的。
看出来了吧?技嘉这盘棋下得挺大,从最前沿的液冷GB200,到主流的企业级风冷方案,再到符合开放标准的通用节点,全链条覆盖。它想扮演的角色很明确:就是全球那些搞顶尖科学计算的数据中心背后,那个最重要的硬件供应商之一。
最后提一嘴,为了把这台XN24和其他产品的来龙去脉、应用场景聊得更透,技嘉还定在这周,也就是2026年1月28号,在大阪国际会议中心的803房间,搞个合作伙伴研讨会。拉上处理器、存储、高性能计算圈子的伙伴,一起聊聊实际部署的经验和未来的趋势。这架势,显然不只是发布个产品,更是想在这个圈子里竖起一面旗。
所以,总结一下今天唠的:大阪展会上,技嘉用一台为日本下一代超算准备的液冷GB200服务器,秀了自己在顶级AI/HPC领域的肌肉。同时,它摆出了一套从“乐高式”单机到“拎包入住”整机柜的完整解决方案,告诉你它不仅能造最快的车,还能提供从零件到赛道的全套服务。AI算力这场仗,已经从单纯的拼芯片,进入到拼系统、拼散热、拼整体解决方案的深水区了。
|
本帖子中包含更多资源
您需要 登录 才可以下载或查看,没有账号?立即注册
x
|