数码之家

 找回密码
 立即注册

QQ登录

只需一步,快速开始

微信登录

微信扫一扫,快速登录

搜索
查看: 386|回复: 0

[产品] 美光/海力士联手推出128GB LPDDR5X内存模组,英伟达GB300系统首发搭载

[复制链接]
发表于 2025-3-20 19:20:44 | 显示全部楼层 |阅读模式
半导体行业三巨头——美光、三星和SK海力士,近日共同发布了名为SOCAMM(小型化高密度内存模组)的新产品。这种采用LPDDR5X芯片的模组尺寸仅为14mm×90mm(传统服务器内存条的三分之一),却实现了单条128GB的超大容量,首发搭载于英伟达最新发布的GB300 Grace Blackwell超级芯片系统,专为AI服务器和低功耗计算场景设计。

三大技术突破
极致紧凑:在14mm×90mm的狭小空间内,通过四组16层堆叠的LPDDR5X芯片实现高密度封装,面积仅相当于传统RDIMM内存条的三分之一。
能效革命:美光基于第五代1β(1-beta)工艺打造的SOCAMM模组,功耗比同容量DDR5内存降低67%。以128GB模组为例,其运行功耗仅为传统方案的33%。
性能跃升:美光版本的理论传输速率达9.6GT/s,SK海力士展示的工程样品则为7.5GT/s,均显著高于当前主流服务器内存。

解决行业痛点
在AI服务器领域,内存功耗已成为系统瓶颈。搭载数TB内存的服务器中,DRAM耗电量甚至超过CPU。英伟达此前在Grace处理器上采用LPDDR5X时,因缺乏标准模组方案,只能将内存芯片直接焊接在主板上。而SOCAMM的模块化设计允许灵活更换升级,且美光已实现量产,这将大幅简化GB300服务器的生产和维护流程。

技术争议与前景
尽管美光强调其SOCAMM的标准化优势,但该技术尚未被国际组织JEDEC纳入行业标准,目前仍是美光、三星、SK海力士与英伟达共同开发的专属方案。行业分析师指出,若该设计未能形成统一标准,可能导致AI服务器内存生态出现技术分裂。

美光计算与网络业务负责人Raj Narasimhan表示:"我们的LPDDR5X和HBM内存方案,正在为GPU的AI训练和推理任务提供更强的算力支撑。"随着首批搭载SOCAMM的GB300系统于2025年下半年上市,这场由AI驱动的新型内存技术竞赛或将进入白热化阶段。





本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册 微信登录

x
您需要登录后才可以回帖 登录 | 立即注册 微信登录

本版积分规则

APP|手机版|小黑屋|关于我们|联系我们|法律条款|技术知识分享平台

闽公网安备35020502000485号

闽ICP备2021002735号-2

GMT+8, 2025-7-21 05:16 , Processed in 0.124800 second(s), 11 queries , Redis On.

Powered by Discuz!

© 2006-2025 MyDigit.Net

快速回复 返回顶部 返回列表