|
这周的硅谷可太热闹了,OCP全球峰会简直成了硬件圈的"春晚现场"。就在各家厂商都在晒肌肉的时候,微星直接开启了双线作战——既能塞进数据中心的怪兽级服务器,又能摆在桌面的迷你超算。这波操作简直像在说:AI算力这盘棋,从云端到边缘我全都要!
今年OCP峰会的时间地点得记一笔:10月13-16日,加州圣何塞会议中心A55展台。微星这次带来的两大王牌产品线,全部都是冲着当前AI基础设施的空白地带去的。
先看数据中心这边的狠货。基于NVIDIA MGX架构的服务器系列,简直就是为当代AI工作负载量身定制的变形金刚。那个4U规格的CG481-S6053,活脱脱就是个"GPU密度狂魔"——双路AMD EPYC 9005处理器打底,配上8个全高全长PCIe 6.0插槽,24个DDR5内存槽,再加上通过NVIDIA ConnectX-8 SuperNIC实现的8路400G以太网。这套配置明摆着就是为大规模AI训练集群准备的,带宽和算力密度都拉满了。
要是机房空间紧张,还有2U的CG290-S3063这个精干选项。单路英特尔至强6处理器配上4个PCIe 5.0 GPU插槽,在有限空间里挤出最大推理性能,特别适合那些需要快速部署AI推理节点的场景。
微星企业平台解决方案总经理Danny Hsu说得明白:"AI模型规模疯长,数据中心现在最缺的就是既能塞下更多GPU又能保证带宽的方案。我们的MGX服务器就是专门治这个病的。"
但最让人挪不开眼的,还是那个桌面级神器EdgeXpert。这玩意儿基本上是把NVIDIA DGX Spark平台塞进了一个1.2升容积、1.2公斤重的小机箱里。GB10 Grace Blackwell超级芯片加持下,通过NVLink C2C技术实现了CPU和GPU的直连,足足能提供1000 AI TOPS的FP4张量性能。
128GB LPDDR5x统一内存的配置,让单台机器就能驾驭2000亿参数的模型。要是有更重的任务,两台并联直接突破4050亿参数门槛。这对于那些受数据隐私所困的行业简直是福音——医学院所可以在本地调试医疗影像模型,金融机构能安全地训练风控算法,再也不用担心敏感数据上传云端的风险。
定制化产品解决方案事业部总经理David Wu点出了关键:"EdgeXpert让AI开发跳出了云端和数据中心的围墙。研究人员和工程师在工位上就能调用超算级别的性能,这才是生成式AI真正普及的开始。"
这次展示的妙处在于,微星同时覆盖了AI算力的两个极端:一边是数据中心的规模化训练,一边是边缘侧的即时推理。这种布局背后是对AI应用生态的精准把握——大模型训练需要集群化作战,而实际落地应用往往需要本地化部署。
从参展阵容也能看出微星的野心,OCP峰会作为开源计算项目的重要舞台,历来是服务器厂商展示技术实力的主战场。选择在这个场合首发全套AI基础设施方案,明显是要在高端企业市场树立技术标杆。
值得留意的是,这次展示的服务器支持最新的NVIDIA Hopper架构GPU和RTX PRO 6000 Blackwell服务器版GPU,这意味着微星在支持最新计算架构方面已经做好了准备。而EdgeXpert选择在DGX Spark平台基础上做定制,也体现出对NVIDIA生态的深度绑定。
看着微星这波从云到端的全面布局,突然意识到AI算力发展正在进入新阶段。当年需要整个机房才能支撑的计算任务,现在可以分散到各个角落——数据中心负责培养"AI大脑",桌面设备则让"AI手脚"深入到每个具体场景。这种算力民主化的趋势,或许比任何单一的技术突破都更值得期待。下次当你对着云端算力账单发愁时,说不定桌面上的那个小盒子已经准备好了替代方案。
|
本帖子中包含更多资源
您需要 登录 才可以下载或查看,没有账号?立即注册
x
|