数码之家

 找回密码
 立即注册

QQ登录

只需一步,快速开始

微信登录

微信扫一扫,快速登录

搜索
查看: 196|回复: 0

[产品] 工业巨头研华科技堆出AI怪兽服务器,能塞12张高通卡,专治边缘算力饥渴

[复制链接]
发表于 2026-3-11 11:33:21 | 显示全部楼层 |阅读模式
各位搞AI部署的工程师、为企业操碎心的IT负责人,还有物联网圈子里摸爬滚打的老师们,赶紧过来看个硬货!这可不是消费级那些玩游戏的显卡,而是正儿八经要往工厂、商场、医院甚至整个城市边缘节点里塞的“推理怪兽”。就在今天,全球工业物联网的大佬级企业研华科技(Advantech),宣布跟高通技术公司把合作升级了,联手搞出了一台专门为生成式AI(GenAI)在边缘侧“狂暴部署”而生的服务器——SKY-641E3。

这名字听着就硬核,但咱别被型号唬住,核心就一句话:它想把原本在数据中心里吭哧吭哧干活的AI大模型推理任务,用最高效、最密集的方式,搬到离数据产生地最近的地方去。​ 用他们自己的话说,就是要“加速生成式AI在边缘的部署”。

那怎么加速呢?秘诀就在这次的合作核心里:研华把高通的“Dragonwing AI本地化设备解决方案”给“吞”进了自己的SKY-641E3这款4U高性能边缘服务器里。而这个Dragonwing方案的心脏,就是高通的Cloud AI 100 Ultra加速器。这俩一结合,再通过一个专门的PCIe交换背板连起来,据说就能提供满足高密度AI推理所需的那种超高带宽。说白了,就是给数据修了一条从AI加速卡到服务器其他部分的“双向十二车道”,杜绝堵车。

好了,基础背景说完,咱来细抠一下,这台SKY-641E3到底“怪兽”在哪。

第一,它不跟你讲武德,专攻“推理密度”。
咱们常见的服务器,一般也就插个两张双槽的GPU,顶天了。但这款SKY-641E3的设计思路完全不同,它生来就是为了把“推理吞吐量”怼到极限。在一个标准的4U机箱里(4U大概就是机房里半个小抽屉那么大),它居然能塞进去最多12个单槽的FH/FL规格的加速器!你想想这个画面,12张卡并排插满,这密度和占地面积的比例,在边缘服务器里绝对是第一梯队的狠角色。

这种配置瞄准的是啥场景?就是那种需要同时处理海量并发请求的边缘工作负载。比如,一个城市级的智能视频分析系统,成千上万个摄像头同时在产生数据;或者大型零售连锁里部署的大规模AI客服/导购代理,同时响应几百上千个用户的查询。这种活,不需要训练GPU那种恐怖的功耗和发热,但要的就是能同时处理几百个实时数据流还不卡壳。SKY-641E3就是干这个的专家。

第二,为了伺候好这12张卡,它浑身都是“肌肉”。
光能插卡不行,还得喂得饱。这台服务器的扩展能力堪称豪华:

两颗高性能CPU:支持双路架构,每颗处理器TDP(热设计功耗)最高能到400瓦,先准备两颗性能巨兽来统筹全局,处理最复杂的计算任务打底。

疯狂的PCIe插槽:给了10个PCIe 4.0 x16插槽和2个PCIe 4.0 x8插槽,这就为高密度加速器部署打下了钢筋铁骨般的基础。

灵活的供电:每个插槽都能提供75瓦的基础供电,而且最狠的是,其中最多能有4个插槽,每个的供电能力可以拉到350瓦!这意味着它能支持当今功耗最高、最吃电的那批AI加速卡,未来升级也不怕。

工业级可靠性:配备了1+1冗余的2700瓦交流电源,保证7x24小时关键任务运行不掉链子,大规模AI部署最怕停电,它给你上了双保险。

第三,核心武器:高通Cloud AI 100 Ultra加速卡。
服务器是躯干,加速卡才是大脑。这次用到的高通Cloud AI 100 Ultra,是专门为了在享受边缘处理的好处的同时,提供数据中心级推理性能而打造的。它的关键规格很吓人:

形态:PCIe FH3/4L(全高,3/4长)
功耗:150瓦(注意,对比动辄三五百瓦的训练GPU,这功耗控制得很妖)
INT8计算能力:每秒870 TOPS(万亿次运算)。这是个天文数字,专门为量化后的AI模型推理准备的。
板载显存:128 GB LPDDR4x,带宽高达每秒548 GB。大模型吃得下,数据喂得快。
主机接口:PCIe 4.0,16条通道,数据吞吐量拉满。
核心数:单张卡上集成了64个专用的AI核心,专门用来驱动复杂的神经网络。

第四,软硬结合,能玩真的。
光有硬件跑分没用,还得看能干啥。研华和高通这组合,号称能带来“本地AI的模式转变”:

支持超大模型:优化到能在一张高通Cloud AI 100 Ultra卡上,运行参数规模高达1090亿(109B)​ 的生成式AI模型,比如新闻里直接点了名的Llama 4。这意味着很多大模型可以不用放在遥远的云上,就在你机房本地跑。
大规模并发:每张Cloud AI 100 Ultra卡,能支持最多20个设备或用户的峰值并发。想想12张卡插满的场景……
高级AI套件:包含了高通AI推理套件,可以一键部署RAG(检索增强生成)和自定义的生成式AI智能体应用,让企业快速用起来,不只是买个算力盒子。

研华边缘服务器事业部的高级总监Jeff Wen说,这次合作通过结合高通的加速器、研华的服务器和自家专利的PCIe交换技术,移除了传统上高功耗和带宽瓶颈的障碍,给工业客户提供了一个强劲、高能效的平台,在任何环境部署复杂的AI智能体和实时分析。

高通的副总裁Evgeni Gousev也强调,把高性能GenAI带到边缘,需要强大芯片和世界级硬件架构的结合。他们看中研华的正是其工业级设计、全面的服务器系统能力和深厚的边缘行业根基。高通的这颗芯片天生就是为企业级推理优化的,功耗控制业界领先。通过研华的平台,企业能真正享受到“本地AI”的好处——更低延迟、显著的成本节约。

最后,这玩意儿能用在哪儿?

他们设计的目标是用例非常广:

智能制造:AI预测性维护、实时质量控制、工人安全监控。
零售与酒店:AI智能终端、门店助理助手、个性化客户促销。
医疗保健:医学影像分析、临床工作流程文档处理。
智慧城市与物流:智能视频监控、公共安全、自主仓库导航。

所以,总结一下,这台SKY-641E3+高通Cloud AI 100 Ultra的组合,就像是研华给边缘AI市场打造的一个“超级算力集装箱”。它用极致的密度、工业级的可靠性和针对推理优化的高能效芯片,试图回答一个问题:当企业真的想在自己机房、在工厂车间、在商场后台部署私有化的大模型和AI应用时,到底需要一台什么样的服务器?现在,研华和高通给出了他们的答案:要能塞,要抗造,要省电,还要能真的跑起那些吓人的大模型。

这玩意价格肯定不菲,新闻稿里没提。但它显然不是卖给个人开发者的,它的目标是那些需要在地端进行大规模、高并发AI推理的垂直行业巨头。边缘AI的军备竞赛,看来已经从芯片层面,正式烧到整机系统层面了。

(消息来源:Techpowerup)







本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册 微信登录

x
您需要登录后才可以回帖 登录 | 立即注册 微信登录

本版积分规则

APP|手机版|小黑屋|关于我们|联系我们|法律条款|技术知识分享平台

闽公网安备35020502000485号

闽ICP备2021002735号-2

GMT+8, 2026-5-11 07:57 , Processed in 0.358801 second(s), 11 queries , Gzip On, Redis On.

Powered by Discuz!

© MyDigit.Net Since 2006

快速回复 返回顶部 返回列表