|
|
各位科技圈的吃瓜群众、硬件发烧友、还有在数据中心里默默搬砖的运维大佬们,注意了注意了!咱今天唠的不是啥花边新闻,也不是哪个APP又偷偷更新了,而是带你们直击一个科技圈的“硬核春晚”——2025年的OCP全球峰会!这地方,简单说,就是全球搞数据中心那帮最牛的大佬们,每年聚在一起“华山论剑”的地方。今年主题更是直戳心窝子:“引领AI的未来”!就在上个月(2025年10月13号到16号),美国加州圣何塞,那场面,啧啧,各家都掏出了压箱底的黑科技。而其中,有个“内存界的扛把子”SK海力士(SK hynix),那展台,那阵仗,那发布的东西,简直是把“未来AI的命根子”都攥手里了!他们喊出的口号贼响亮:“内存,驱动AI与明天!”(MEMORY, Powering AI and Tomorrow)。咱今天,就细细品品,看看海力士这次到底整了哪些让人眼珠子掉地上的狠活,为啥说他们离“全栈AI内存供应商”的终极目标又近了一大步!准备好了吗?信息量巨大,咱这就开唠!
1. 峰会背景:这可不是普通庙会!
首先,给可能不太熟OCP是啥的朋友补个小背景。OCP,全称Open Compute Project(开放计算项目),听着名字挺开源挺社区是吧?但它其实是全球最大、最顶的数据中心技术开放协作社区!想象一下,Facebook(哦,现在叫Meta)、微软、谷歌、英特尔这些巨头,坐在一起,撸起袖子,共同捣鼓怎么把数据中心整得更高效、更便宜、更环保。每年的OCP全球峰会,那就是这帮技术极客和产业大佬的年度狂欢节,展示最新成果、碰撞思想火花、制定未来标准的地方。今年主题紧扣“Leading the Future of AI”(引领AI的未来),那来的都是啥神仙?全球顶尖公司的技术大拿、开发者们,讨论的都是数据中心和AI基础设施最前沿的玩意儿,琢磨着怎么解决行业里那些让人头秃的难题。海力士选在这个舞台放大招,那用意,你品,你细品。
2. 海力士展台:内存宇宙大观园!
海力士这次在圣何塞的展台,设计得那是相当用心,直接给你整了个“内存宇宙”分区游览!整个展区被清晰地划分成四大块“星球”:
HBM星球:专秀高带宽内存,AI芯片的“高速加油站”。
AiM星球:主打近存处理(AiM),给内存加点“智商”。
DRAM星球:展示各种服务器用的动态随机存取内存,数据中心的老熟人。
eSSD星球:陈列企业级固态硬盘,数据仓库的“大容量担当”。
这还不算,为了让技术不那么冷冰冰,海力士还给产品设计了专属的卡通形象!关键技术的3D模型也给你摆那儿,看得见摸不着(但能脑补)。最带劲的是,现场还有实机演示(Live Demo)!不是PPT画饼,是真刀真枪跑给你看!这诚意,杠杠的。
3. 镇馆之宝:12层HBM4,量产了!真·王炸!
要说整个展台最闪亮的星,那必须是海力士刚刚搞定的12层HBM4!这玩意儿有多牛?咱得掰扯清楚:
时间线拉满:就在2025年9月,海力士官宣——全球第一家完成HBM4开发,并且把量产体系都搭好了!这速度,这执行力,卷王本王了属于是。
性能狂暴升级:具体牛在哪?它拥有2048个输入/输出(I/O)通道!兄弟们,划重点,这是上一代HBM的两倍!两倍啊!这意味着啥?带宽(数据传输速度)蹭蹭往上涨,更关键的是,能效提升了超过40%!在AI计算这种电老虎领域,省电就是省钱,就是环保,就是能塞进更多算力!这性能,简直就是为那些追求“独孤求败”级别的超高性能AI计算系统量身定做的。想象一下,AI模型训练和推理的速度,又能往上蹿一大截!
4. HBM展区:不止有未来,还有当下的顶配!
光秀未来战士HBM4还不够,海力士也没忘了展示现在就能打的实力派。他们亮出了36GB容量的HBM3E。划重点:这是目前市面上容量最大的HBM产品!而且,它可不是光摆着看,人家已经实打实地用在了NVIDIA下一代GB300 Grace Blackwell GPU上!这组合,妥妥的“性能怪兽”套餐。展台旁边还放了个3D模型,专门展示HBM里面那些精密的“黑科技”,比如硅通孔(TSV)和 先进批量回流塑封(Advanced MR-MUF)这些封装技术。就是想告诉你,HBM能堆那么高、跑那么快、还不散架,靠的就是这些独门秘籍。
5. AiM展区:给内存装上“小脑瓜”,专治LLM“内存墙”焦虑!
AiM(近存处理)是海力士另一个重头戏。他们搞了个现场实机演示,主角是自家的 AiMX卡,这卡里面塞了多个 GDDR6-AiM芯片。
演示配置硬核:一台服务器,插着四张AiMX卡,配上两颗NVIDIA H100 GPU。这阵容,一看就是要干大事。
专攻LLM核心痛点:演示想证明啥?AiMX最擅长优化大型语言模型(LLM)里最核心的计算操作——注意力机制(Attention)。这玩意儿特别吃内存带宽,容易形成“内存墙”(Memory Wall),就是说算力被内存速度拖了后腿。AiMX直接在内存旁边加点处理能力,相当于给内存开了个“快速通道”,专门处理这些内存密集型的活,速度和效率嗷嗷提升!
解决“长聊”卡顿:还有一个妙用!当AI跟你进行超长对话(Q&A序列)时,需要缓存很多之前的对话信息(KV Cache)。AiMX能显著提升这个缓存的利用率,让AI“记性”更好,聊再久也不容易“大脑短路”卡壳。
现场跑模型,多人狂聊不卡顿:演示用的是啥模型?Meta的Llama 3!运行框架是 vLLM。现场效果是啥?多个用户可以同时、丝滑地访问同一个聊天机器人服务,一点不带卡顿的!这效果,直接让围观群众(包括潜在客户)亲眼见证了AiM技术的硬实力——不是吹的,是真能打!
6. CXL展区:内存也能“共享经济”,还能兼职“算力”?
海力士在CXL(Compute Express Link)技术上也玩出了花,展示了多种让系统内存容量和带宽更灵活扩展的方案。
分布式LLM推理:搞了一个分布式LLM推理系统。牛在哪?它把多个服务器和GPU连起来,不需要走传统的网络!靠啥连?靠 CXL 内存池(CXL pooled memory)!这技术允许不同的处理器(或者叫主机)灵活地共享同一大块内存池。想象一下,数据不用在网络上绕来绕去,直接在内存池里交换,速度得多快?延迟得多低?
CMM-Ax:内存不光存,还能算!另一个亮点是 CXL 内存模块-加速器(CMM-Ax)。这玩意儿更绝,它在CXL内存的基础上,直接加上了计算能力!相当于内存不光能存东西,还能顺手帮你算点东西!海力士把它用在了 SK Telecom(韩国电信)的 Petasus AI 云平台上,现场展示了性能提升。这思路,有点打破传统“内存归内存,计算归计算”的界限了。
7. 内存分层 & 缓存优化:把钱花在刀刃上!
海力士还整了个活,验证了一个叫 分层解决方案(Tiering Solution)的好处。这玩意儿是干啥的?就是帮你把数据中心里不同类型的内存(贵的、便宜的、快的、慢的),组合起来用,达到一个最优的性价比配置。钱要花在刀刃上嘛!
技术支撑:CHMU:实现这个分层的关键技术叫 CHMU(Compute Host Managed Umbrella)。这技术是啥来头?它可是首次出现在CXL 3.2标准里的新玩意儿!海力士算是把它用起来了。
CMM-DDR5缓存加速:另一个单独的演示也吸引了不少眼球。它展示了基于 CMM-DDR5的内存,如何显著提升LLM服务系统的 提示词缓存(Prompt Caching)能力。效果是啥?用户提问后,AI的响应时间嗖嗖地缩短!用户体验直接拉满。
8. DRAM展区:服务器内存的“全家桶”!
来到DRAM区,海力士秀的是面向下一代服务器市场的 DDR5内存模组产品线。这里的特点是多样性!
容量 & 形态全覆盖:展品吸引了大家注意,为啥?因为它展示了不同容量、不同物理形态(Form Factor)的丰富产品组合。这摆明了是要满足各种刁钻的服务器设计需求。
技术亮点:展品包括:
基于 1c纳米制程节点(这是海力士第六代10纳米级工艺技术)的 RDIMM(寄存式双列直插内存模组)和 MRDIMM(多路复用缓冲DIMM)。
3DS DDR5 RDIMM(利用堆叠技术增加容量)。
DDR5 Tall MRDIMM(一种特定高度的模组)。
总之,就是告诉你,甭管你要啥样的DDR5服务器内存,海力士这儿都有货!
9. eSSD展区:从高速到海量,数据中心存储的“百宝箱”!
最后压轴的eSSD(企业级固态硬盘)区,海力士拿出了各种为服务器和数据中心优化的存储方案,覆盖了各种需求:
性能先锋:
PS1010 E3.S / U.2 型号:基于 176层4D NAND闪存。E3.S和U.2是两种不同的硬盘外形规格。
新工艺代表:
PEB110 E1.S 型号:基于更先进的 238层4D NAND闪存。E1.S是更小巧的规格。
容量怪兽!王中王登场!
245 TB PS1101 E3.L 型号:来了来了!真正的“大胃王”!基于业界最高层数的321层QLC(四层单元)NAND闪存!245TB啊兄弟们!这容量,存个小型图书馆都够了!E3.L是那种超大尺寸的规格,专为高密度存储设计。
接口全覆盖:整个eSSD产品线设计目标很明确:通吃各种服务器环境和性能需求!从追求极致速度的 PCIe Gen 5 NVMe接口,到经济实惠的 SATA接口(常用于紧凑型服务器),统统安排上!客户想要啥,海力士就供啥。
10. 不只是秀肌肉,还要讲战略!
你以为海力士去OCP就光摆摊儿了?那不能够!他们还上了讲台,分享了对未来的思考。
Kim Chunsung副总裁(eSSD产品开发负责人):他的演讲题目是《超越SSD:SK海力士AIN家族重新定义存储作为大规模AI核心使能者的角色》。他聊了啥?主要介绍了面向AI时代的高容量、高性能存储解决方案,以及海力士打算怎么加强产品竞争力的战略路线图。意思就是,SSD不能只是硬盘,得成为AI的强力后盾!
“Thomas” Wonha Choi(下一代内存与存储部门):他的演讲题目是《为AI推理优化的下一代内存与存储概念化》。他提出了啥方向?主要是探讨如何根据新的市场环境和客户需求,来满足未来AI推理对性能和功耗的苛刻要求。就是给行业指条明路。
所以啊,各位看官,海力士这次在2025 OCP全球峰会上,那真是“有备而来,满载而归”。从已经量产、独孤求败的12层HBM4,到解决AI内存墙的AiM黑科技;从灵活共享的CXL内存池,到给内存加算力的CMM-Ax;从分层优化省钱大法,到245TB惊掉下巴的固态硬盘;再到覆盖全场景的DRAM和eSSD产品线... 这一整套硬核展示下来,再配上高层对未来战略的清晰阐述,海力士这波操作,绝不仅仅是秀了一下“肌肉有多壮”。它实实在在地向全世界宣告:我,SK海力士,正在从一家顶级内存芯片供应商,大步流星地迈向 “全栈AI内存解决方案提供商”的终极目标!全球合作?深化了!技术路线?更清晰了!在AI基础设施这场瞬息万变的马拉松里,海力士不仅没掉队,还稳稳地跑在了第一梯队的前排。未来的AI世界需要什么样的内存和存储?海力士这次,给出了一个相当有分量的答案!这场科技盛宴,咱就唠到这儿,信息量管够了吧?下次再有硬核科技大瓜,咱接着唠!
|
本帖子中包含更多资源
您需要 登录 才可以下载或查看,没有账号?立即注册
x
|