|
|
各位科技圈的吃瓜老铁、AI炼丹的秃头道友、还有整天跟数据打架的运维大哥们,注意了注意了!就在这两天,全球超算界的奥斯卡——SC25(Supercomputing 2025)正热热闹闹开着呢,咱们的老熟人华硕,可没闲着看戏!人家直接撸起袖子,哐当一声,把一整套专门伺候AI大模型和超算狠活儿的“存储全家桶”外加“算力硬菜”给端上桌了!这架势,摆明了就是冲着解决咱们现在最头疼的问题来的:AI模型越练越大,数据量跟坐了飞机似的往上蹿,没个能扛能打的“数据粮仓”和“算力灶台”,再牛的AI也得饿肚子、卡成PPT啊!
华硕这回是真·火力全开,直接亮出了“全栈基础设施扛把子”的身份牌。啥意思?就是说,从你算数(Compute)、存东西(Storage)、传数据(Networking)到后期服务(Services),人家华硕现在能给你整条龙包圆了!而且人家可不是光画大饼,全球供应链稳得一批,说给你送到就送到,主打一个靠谱,让你搞AI大工程心里不慌,脚底板不虚!
第一趴:存储“粮仓”大升级!从边边角角到云里雾里,啥活儿都能接!
华硕这次甩出来的存储方案,那叫一个“花活儿”齐全!甭管你是要整块儿存(Block)、按文件存(File)、按对象存(Object),还是玩软件定义(Software-defined),统统安排!目标就一个:让你从犄角旮旯的边缘计算,到飘在天上的云端,从公司里那些正经八百的企业应用,到能把显卡烧冒烟的AI训练、超算模拟,数据存取都能丝滑得跟德芙似的!
1. 块存储扛把子:VS320D-RS12
这玩意儿,核心是用了英特尔至强处理器的双控制器(Active-Active),稳得一批!容量能一路堆到吓死人的 7.1 PB(对,就是7100 TB!),而且贼聪明,会用SSD当缓存,还会自动把热数据放“快车道”(SSD缓存和自动分层),冷数据挪“慢车道”。干啥最合适?搞虚拟化啊、跑那些公司离了就得歇菜的关键业务啊,贼靠谱!想象一下,公司核心数据库跑在这上面,那感觉,踏实!
2. 统一存储多面手:VS320D-RS12U
这位大哥更是个“端水大师”,专门对付企业里那些五花八门的混合工作负载。文件协议(File)和块协议(Block)它都玩得转!同样有SSD缓存、自动分层这些提速buff,还能跟S3云服务同步数据(S3云同步),搞异地容灾(DR站点),甚至能帮你把数据压缩瘦身(数据缩减)。心脏也是英特尔至强双控制器架构,保证你存取数据又快、又省、又安全!公司里那些杂七杂八的应用,交给它准没错。
3. 对象存储海量王:OJ340A-RS60
这位可是专门对付“数据海洋”的狠角色!基于AMD平台,用Ceph框架搞的,兼容S3和Swift协议(对象存储标准)。最大杀器是用了NVMe加速!啥效果?就是存AI训练用的海量数据湖(AI Data Lakes)、搞大数据分析、或者需要存到天荒地老的档案,性能都贼拉稳当、贼拉可预测,而且能轻松干到EB级别(1 EB = 1024 PB!)!这容量,存下整个互联网的历史快照估计都够呛能装满吧?
4. JBOD扩展小能手:VS320D-RS12J
这位是纯粹的“容量怪兽”,专门给你家已有的存储系统“加餐”用的!高密度设计,通过78盘位或12盘位的配置(78 / 12-bay configurations),也能堆到7.1 PB!支持12 Gb/s SAS 3.0接口,电源有冗余,连接走多路径,就是告诉你:扩展吧,大胆地扩展!甭管是企业还是数据中心,需要塞更多硬盘?找它!灵活又可靠,稳!
第二趴:AI/HPC专属“高速灶台”!跟大佬联手,专治各种算力不服!
华硕深知,光有粮仓不够,AI和超算这俩“大胃王”还得配“猛火灶”!所以他们拉上了存储界的几位大佬——WEKA、IBM、VAST Data 和 Hammerspace,一起搞了个基于AMD EPYC的强力平台。这玩意儿是软件定义存储(Software-defined Storage),专为那些塞满GPU、跑AI和超算的环境打造。特点就俩字:低延迟 + 统一数据管理!想象一下,GPU嗷嗷待哺要数据,这存储系统能“嗖”一下把数据精准投喂到位,绝不拖后腿!
重头戏来了!算力“核弹”:XA AM3A-E13 带着 AMD Instinct MI355X 闪亮登场!
华硕在SC25的摊位上,那真是群星璀璨,合作的技术大佬能凑几桌麻将!但最吸睛的C位,绝对是这台 XA AM3A-E13!它肚子里塞了八块最新鲜热乎的 AMD Instinct MI355X GPU,再配上两颗 AMD EPYC 9005 系列处理器,这组合,摆明了就是冲着生成式AI和超算(HPC) 这些最烧算力的活儿去的!性能有多炸?
新技能Get! 支持 FP4/FP6 这种更低精度的数据类型(对AI推理贼友好),推理(Inference)性能直接起飞!意味着这台机器不仅能搞“AI训练”,还能同时把“AI推理”干得飞快!训练完模型立马就能上线用,无缝衔接!
内存壕无人性! 行业顶尖的 288 GB HBM 显存(高带宽内存),配上最高 8 TB/s 的恐怖内存带宽!这啥概念?训练超大AI模型、跑超复杂的模拟,数据吞吐量大到吓人?它能接得住!速度嗖嗖的!
内部沟通贼快! GPU 和 GPU 之间直接“打电话”(直接 GPU-to-GPU 互联),数据不用绕远路,传输效率杠杠滴!
设计贴心! 模块化的 10U 设计,部署起来省心省力,散热也安排得明明白白(优化散热性能)。总结一句话:这就是为高效搞生成式AI和大模型计算量身定做的“超级工作站”!
其他硬菜也不能少:
RS520QA-E13-RS8U: 这是个 2U 高密度服务器,里面塞了4个计算节点!最大亮点是支持 CXL 2.0 技术,能让节点之间共享内存,访问数据延迟低到尘埃里!特别适合那些数据多到爆炸的HPC和“AI工厂”场景。
RS720A-E13-RS8U & RS700A-E13-RS12U: 这两位是“均衡实力派”,双路设计(双AMD EPYC),支持最新的 PCIe 5.0 扩展(速度翻倍!),内存也能怼得很大。目标用户很明确:搞虚拟化的、跑企业级应用的、还有那些要求没那么极致但也要用AI的普通场景,它们都能稳稳Hold住。
第三趴:英特尔阵营也支棱起来了!Xeon 6 平台,企业&AI通吃!
华硕这次可是端水端得平平的,在AMD平台大放异彩的同时,也为英特尔平台的用户和伙伴们备上了一份厚礼。
ESC8000-E12P AI 服务器: 这绝对是英特尔阵营里的“算力怪兽”!最多能塞进去八块双槽位的GPU!重点是可以支持 Intel Gaudi 3 PCIe AI 加速器!这Gaudi 3 也不是吃素的,自带 128 GB HBM2E 显存 和 3.7 TB/s 的带宽,专为持续的AI训练、模型微调和大模型推理提供澎湃动力!整个系统基于 PCIe 5.0 架构,还集成了高速以太网连接,特别适合企业搭建AI基础设施和搞RAG(检索增强生成)这类应用,扩展起来贼高效!
RS720-E12-RS24U: 这是个 2U 双路 的选手(双Intel Xeon 6),主打一个性能均衡和扩展灵活,属于多面手。
RS700-E12-RS4U: 这位身材更紧凑点(也是双路Intel Xeon 6),但 I/O 密度贼高,特别适合企业日常应用和虚拟化需求,小巧但能干!
最后彩蛋:华硕科技脱口秀(ASUS Tech Talks)开讲!大佬云集唠干货!
华硕这次不光秀肌肉,还攒了个高端局!把 Intel(英特尔)、Vertiv(维谛)、IBM(国际商业机器)、Micron(美光)、Western Digital(西部数据)、WEKA 这些行业巨头的专家都请到了自己的展台(#3732号!记好了!),搞了个系列对谈活动——“ASUS Tech Talks”。
聊啥?全是硬核干货!下一代AI基础设施怎么搞?散热黑科技有啥门道?(Vertiv是搞这个的)存储和计算又有啥新花样?(Micron、WD、WEKA、IBM都是行家)英特尔肯定也得聊聊自家芯片咋助力AI… 这些大佬坐一块儿唠,信息量绝对爆炸!
这活动也充分说明了华硕的态度:咱不闭门造车,就爱搞开放合作!华硕就是要当这个热闹科技生态圈的核心,跟伙伴们一起,把AI数据中心的效率、可扩展性和可持续性,统统往上再拔高一个层次!
所以啊,各位!
如果你们正在为AI算力不够、数据存不下、取不快、或者想了解最前沿的AI基础设施该咋整而头秃,麻溜儿地! 赶紧记下华硕展台号 #3732!去听听大佬们现场唠嗑,跟华硕的技术专家面对面取取经。看看华硕这波“全栈式AI基础设施”的王炸组合拳,到底能不能帮你把AI和超算的“满汉全席”,做得更香、更快、更稳!这热闹,不凑亏大了啊!
|
本帖子中包含更多资源
您需要 登录 才可以下载或查看,没有账号?立即注册
x
|