数码之家

 找回密码
 立即注册

QQ登录

只需一步,快速开始

微信登录

微信扫一扫,快速登录

搜索
查看: 71|回复: 0

[科技] 英伟达开练新内存SOCAMM 2025目标80万片 美光率先抢跑量产​

[复制链接]
发表于 昨天 11:37 | 显示全部楼层 |阅读模式
嘿,玩AI芯片的大佬NVIDIA上周又放新招了!他们自个儿摊牌说,2025年这一年,准备在自家产品里塞进去好大一批新玩意儿,学名叫SOCAMM的内存模块。量有多大?60万到80万片!这可不是小数目,摆明了是要拿这个叫SOCAMM的新技术,动一动现在AI硬件里常用的高性能内存HBM的地盘了。

NVIDIA打算把这些SOCAMM模块用在哪?当然是最新、最炫的AI宝贝上。就比如今年GTC 2025(NVIDIA技术大会)上亮过相的GB300 “Blackwell”平台,还有那个叫Digits系统的AI PC。都是硬货!

行业里头也有消息灵通人士传出风声,说NVIDIA已经把这大致的采购盘子,给做内存的、做基板配套的供应商们都通过气了。那这么大的活儿,NVIDIA肯定得找大厂合作吧?没错,他们拉了三位内存界的顶流一起鼓捣SOCAMM:三星电子、SK海力士,还有美光科技。

不过嘛,竞技场上总有人跑得快一步。这不,据Digitimes Asia这地方的消息(他们参考了ET News和Wccftech的报道),在这个SOCAMM量产资格的赛跑里,美光科技先拔头筹,已经成功拿到了批量生产的许可,暂时领先三星和海力士一个身位。

咱得扒拉扒拉这SOCAMM到底是个啥宝贝?它大名挺长,学名“系统级芯片先进内存模块”(System on Chip Advanced Memory Module)。本质呢,是用上了笔记本电脑、手机里常见的低功耗内存LPDDR DRAM的技术路数。这东西本事不小,专门对付那些需要又猛又快传数据,但同时又得省电的AI计算任务,属于两头都想要、两头都不耽误的类型。

具体厉害在哪?美光自己甩出来的数据挺有说服力:跟咱们平时服务器里插的那种标准RDIMM内存条比,SOCAMM传输数据的能耐(就是带宽)一下子冲到了2.5倍!而且更神的是,它个头还能缩小,同时耗电量也跟着一块儿往下砍,这俩方面都能砍掉整整三分之一!等于是体积功耗一起瘦身,性能反而猛增。

虽说NVIDIA计划在2025年搞的这个60到80万片SOCAMM的规模,比起他们同一年打算买的约莫900万片HBM(数字来源是行业对NVIDIA采购预期的判断),看起来是小巫见大巫。但这事儿信号意义可不一般!圈里明白人觉得,这很可能是内存界和背后基板供应链要变天的一个先兆。

这SOCAMM要往哪铺货?NVIDIA想法很实际:先从大公司用的AI服务器和专业人士整活用的工作站开始铺开,把“商用”这头稳住;接着呢,再瞄着咱们普通人桌上的个人电脑推进。说白了,这套路就是想走量又赚钱,同时把那些顶天的AI计算需求给喂饱了。

所以,2025年美光抢跑量产这事儿,算是为NVIDIA这个野心勃勃的SOCAMM换装计划,垫上了第一块实在的砖头。至于三星和SK海力士后面能不能追上,咱们就搬板凳看戏吧!



本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册 微信登录

x
您需要登录后才可以回帖 登录 | 立即注册 微信登录

本版积分规则

APP|手机版|小黑屋|关于我们|联系我们|法律条款|技术知识分享平台

闽公网安备35020502000485号

闽ICP备2021002735号-2

GMT+8, 2025-7-25 23:57 , Processed in 0.109200 second(s), 7 queries , Redis On.

Powered by Discuz!

© 2006-2025 MyDigit.Net

快速回复 返回顶部 返回列表