|
各位机房佬、算力控、硬件发烧友们,你们期待的硬货来了!就在这几天美国奥斯汀举办的OCP全球峰会上,技嘉旗下的Giga Computing直接甩出了王炸——一款能塞进8块NVIDIA Blackwell GPU的服务器。这阵仗,简直是把AI算力密度卷出了新高度!
要说现在AI服务器市场有多热闹,看看各家厂商的展台就知道了。Giga Computing这次在A57展位摆开的阵势,活脱脱就是个"算力武器展"。最抢眼的当属那个遵循OCP ORv3标准的GIGABYTE TO86-SD1,这玩意儿采用的是NVIDIA HGX B200平台,简单来说就是给Blackwell GPU搞了个"八星报喜"的配置。
八大金刚的硬核配置
来看看这个"算力怪兽"的底细:八块NVIDIA Blackwell GPU加起来拥有1.4TB的HBM3E内存,这容量都快赶上一个小型数据中心的存储了。搭配两颗英特尔至强6700/6500系列处理器,正面还有12个扩展插槽,支持NVIDIA BlueField-3 DPU和ConnectX-7网卡。
最贴心的是那个前面板设计,8个2.5英寸Gen5 NVMe热插拔盘位就像服务器的"外卖窗口",运维小哥不用费力扒拉地把机器拖出来就能更换配件。支持的系统更是从Windows Server到RHEL、Ubuntu、Citrix、VMware ESXi一应俱全,看得出来是想通吃各个细分市场。
液冷猛兽同台竞技
要是觉得风冷不够刺激,Giga Computing还展出了NVIDIA GB300 NVL72平台。这个液冷机架级解决方案专为推理负载优化,密度高得吓人。旁边还站着GIGABYTE XL44-SX2,搭载NVIDIA ConnectX-8 SuperNIC,活脱脱一个网络加速专家。
说起来有意思,Giga Computing这次明显是在打"组合拳"。从传统的风冷到液冷,从GPU服务器到智能网卡,把AI计算的全链路都包圆了。特别是那个TO86系列,明显是冲着二级云服务商和预算有限但又需要强大算力的用户去的。
开放计算的胜利
OCP ORv3标准的好处在于,它让服务器更像乐高积木而不是黑盒子。基于这个标准设计的TO86-SD1,让客户在维护和升级时能有更多自主权。对于那些受够了厂商锁定的数据中心管理员来说,这无疑是个好消息。
值得一提的是,这已经不是Giga Computing第一次在OCP峰会上搞事情了。之前他们就推出过机架式风冷8U服务器和液冷4U服务器,这次又加码OCP规格,明显是要把开放计算的路子走到底。
算力市场的三国杀
现在AI算力市场可谓是群雄逐鹿。一边是传统服务器大厂在固守阵地,一边是云服务巨头在自研芯片,像Giga Computing这样的厂商则选择在标准化和定制化之间寻找平衡点。TO86系列的出现,正好填补了大厂定制方案和白牌服务器之间的市场空白。
特别是对于那些想要部署AI能力但又不想被单一供应商绑死的企业来说,基于开放标准的解决方案无疑更具吸引力。而且随着AI工作负载的多样化,这种灵活配置的服务器可能会越来越吃香。
未来的征程
Giga Computing这波展示还只是个开始,接下来他们还要赶场参加10月底的NVIDIA GTC华盛顿大会和11月的SC25超算大会。这一连串的曝光,说明他们在加速计算领域是认真的。
从商业角度看,这种高频次的参展策略也很聪明。既能持续刷存在感,又能根据不同大会的受众特点调整展示重点。比如在GTC上可能会更强调GPU性能,而在SC25上则会侧重HPC场景的优化。
说在最后
看着这些服务器配置,不禁让人感叹AI算力发展的速度。从当年单个GPU都要精打细算,到现在动辄八卡配置,这才过了几年时间。Giga Computing这次展示的TO86-SD1,可以说是当前AI基础设施发展的一个缩影——更高密度、更开放、更注重总体拥有成本。
对于正在规划AI基础设施的企业IT负责人来说,这类基于开放标准的高性能服务器确实值得放进备选清单。毕竟在算力成本水涨船高的今天,谁能用更少的钱办更多的事,谁就能在AI竞赛中占据先机。
|
本帖子中包含更多资源
您需要 登录 才可以下载或查看,没有账号?立即注册
x
|