数码之家

 找回密码
 立即注册

QQ登录

只需一步,快速开始

微信登录

微信扫一扫,快速登录

搜索
查看: 84|回复: 0

[科技] 美光HBM4突袭2.8TB/s带宽!定制化芯片时代来临

[复制链接]
发表于 昨天 18:59 | 显示全部楼层 |阅读模式
嘿,各位数码发烧友和吃瓜群众们,最近科技圈又搞了个大新闻!不是手机圈卷镜头,也不是电动车比续航,这一次,战场在咱们平时可能不太留意、但实则至关重要的高性能内存领域。就在日前,美光科技在公布其2025财年第四季度和全年业绩的同时,亮出了一波关于下一代HBM4内存的重要进展——好家伙,参数全部飙到飞起,场面一度十分刺激。

性能炸裂:远超行业标准,带宽高达2.8 TB/s

美光首席执行官Sanjay Mehrotra在电话会议中正式确认,美光的HBM4——12-high堆叠产品——已经向客户送样,并且性能直接冲上了行业前所未有的水准:带宽突破 2.8 TB/s,引脚传输速率达 11 Gb/s。

可能有些朋友还不太清楚这是个什么概念。这么说吧,目前JEDEC官方给的HBM4标准是啥?带宽 2 TB/s,引脚速度 8 Gb/s。而美光这一波操作,比标准高出整整40%!换句话说,还没正式开跑,美光就已经在赛场外自嗨加速了。

凭什么这么猛?归根结底一句话——客户逼的。如今像NVIDIA、AMD这样的芯片巨头,他们家的GPU算力提升速度堪比坐火箭,如果内存性能跟不上,再强的核心也只能“摸鱼”。所以美光这次不跟标准玩了,彻底搞起“超标”模式。

背后推手:NV、AMD纷纷要定制,基片也能“私人订制”

更有意思的还没完。Mehrotra还提到,针对接下来的HBM4E,美光不仅会提供标准产品,还开放了“基片定制”选项。也就是说,客户可以在基础内存堆叠的底部加一颗自己设计的专用逻辑芯片。

这说明什么?NV和AMD这下可真没少下功夫——以后你买到的可能不只是一块内存,而是“内存+轻度计算单元”的合体形态了!这种操作最大的好处就是进一步减少数据搬运延迟,效率提上去,性能拉满格。这也意味着,AI加速卡的自研程度越来越高,以后第三方标准件可能越来越难满足头部大厂的需求。

美光的底气:1γ工艺 + 自研基片 + 先进封装

美光这次敢这么“狂”,当然不是光靠喊口号。他们在制造工艺层面也堆了不少料:包括基于1γ(1-gamma)制程的DRAM芯片、自主研发的先进CMOS基片,再加上领先的封装技术。用Mehrotra的话来说,这些是他们实现“行业最高性能与最佳能效”的关键差异点。

换句话说,别人家还在琢磨怎么堆层数,美光已经从上到下、从里到外全部重新升级了一遍——这种打法确实有点“降维打击”那味儿。

行业背景:AI催生内存需求,HBM已成必争之地

说回大环境。自从ChatGPT带起这波AI浪潮,高端训练和推理芯片对内存带宽和容量的需求就一路疯涨。HBM(高带宽内存)由于具备高位宽、高吞吐的特性,已经成为AI加速卡的“标配内存”。而随着模型规模越来越大,参数动不动破万亿,没有高速内存的支持,再强的算力也发挥不出来。

目前全球HBM市场基本被三星、SK海力士和美光三家包揽,而美光这一次提前打出“性能超越版”HBM4,明显是想在接下来的竞争中抢占技术高地,争取在NV、AMD下一代加速卡中拿到更多份额。

不只是速度,更是一场生态博弈

另外值得注意的是,定制化基片的出现,可能意味着HBM的竞争不再只是“堆规格”“拼工艺”,而逐渐演变成一场涵盖软硬件协同、内存-计算一体化的深度生态博弈。厂商如果能提前介入定制,就有机会在延迟、能耗、兼容性等方面建立壁垒——这已经不只是一颗内存,而逐渐变成半定制化的解决方案了。

写到最后

美光这一波操作,无疑把HBM4的竞争强度拉高了一个量级。原先大家预计的标准性能已经够吓人,结果巨头们还要自己往上加码。明年NV、AMD的下一代加速卡,大概率就会用上这些“怪兽级”内存。

而我们也在隐隐期待,未来会不会出现更多结合内存与计算的新型架构?会不会带动整个行业走向更高效的异构计算路线?这场好戏,才刚刚拉开序幕。

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册 微信登录

x
您需要登录后才可以回帖 登录 | 立即注册 微信登录

本版积分规则

APP|手机版|小黑屋|关于我们|联系我们|法律条款|技术知识分享平台

闽公网安备35020502000485号

闽ICP备2021002735号-2

GMT+8, 2025-9-25 00:50 , Processed in 0.109200 second(s), 9 queries , Gzip On, Redis On.

Powered by Discuz!

© 2006-2025 MyDigit.Net

快速回复 返回顶部 返回列表