|
半导体行业三巨头——美光、三星和SK海力士,近日共同发布了名为SOCAMM(小型化高密度内存模组)的新产品。这种采用LPDDR5X芯片的模组尺寸仅为14mm×90mm(传统服务器内存条的三分之一),却实现了单条128GB的超大容量,首发搭载于英伟达最新发布的GB300 Grace Blackwell超级芯片系统,专为AI服务器和低功耗计算场景设计。
三大技术突破
极致紧凑:在14mm×90mm的狭小空间内,通过四组16层堆叠的LPDDR5X芯片实现高密度封装,面积仅相当于传统RDIMM内存条的三分之一。
能效革命:美光基于第五代1β(1-beta)工艺打造的SOCAMM模组,功耗比同容量DDR5内存降低67%。以128GB模组为例,其运行功耗仅为传统方案的33%。
性能跃升:美光版本的理论传输速率达9.6GT/s,SK海力士展示的工程样品则为7.5GT/s,均显著高于当前主流服务器内存。
解决行业痛点
在AI服务器领域,内存功耗已成为系统瓶颈。搭载数TB内存的服务器中,DRAM耗电量甚至超过CPU。英伟达此前在Grace处理器上采用LPDDR5X时,因缺乏标准模组方案,只能将内存芯片直接焊接在主板上。而SOCAMM的模块化设计允许灵活更换升级,且美光已实现量产,这将大幅简化GB300服务器的生产和维护流程。
技术争议与前景
尽管美光强调其SOCAMM的标准化优势,但该技术尚未被国际组织JEDEC纳入行业标准,目前仍是美光、三星、SK海力士与英伟达共同开发的专属方案。行业分析师指出,若该设计未能形成统一标准,可能导致AI服务器内存生态出现技术分裂。
美光计算与网络业务负责人Raj Narasimhan表示:"我们的LPDDR5X和HBM内存方案,正在为GPU的AI训练和推理任务提供更强的算力支撑。"随着首批搭载SOCAMM的GB300系统于2025年下半年上市,这场由AI驱动的新型内存技术竞赛或将进入白热化阶段。
|
本帖子中包含更多资源
您需要 登录 才可以下载或查看,没有账号?立即注册
x
|