|
嘿,玩AI芯片的大佬NVIDIA上周又放新招了!他们自个儿摊牌说,2025年这一年,准备在自家产品里塞进去好大一批新玩意儿,学名叫SOCAMM的内存模块。量有多大?60万到80万片!这可不是小数目,摆明了是要拿这个叫SOCAMM的新技术,动一动现在AI硬件里常用的高性能内存HBM的地盘了。
NVIDIA打算把这些SOCAMM模块用在哪?当然是最新、最炫的AI宝贝上。就比如今年GTC 2025(NVIDIA技术大会)上亮过相的GB300 “Blackwell”平台,还有那个叫Digits系统的AI PC。都是硬货!
行业里头也有消息灵通人士传出风声,说NVIDIA已经把这大致的采购盘子,给做内存的、做基板配套的供应商们都通过气了。那这么大的活儿,NVIDIA肯定得找大厂合作吧?没错,他们拉了三位内存界的顶流一起鼓捣SOCAMM:三星电子、SK海力士,还有美光科技。
不过嘛,竞技场上总有人跑得快一步。这不,据Digitimes Asia这地方的消息(他们参考了ET News和Wccftech的报道),在这个SOCAMM量产资格的赛跑里,美光科技先拔头筹,已经成功拿到了批量生产的许可,暂时领先三星和海力士一个身位。
咱得扒拉扒拉这SOCAMM到底是个啥宝贝?它大名挺长,学名“系统级芯片先进内存模块”(System on Chip Advanced Memory Module)。本质呢,是用上了笔记本电脑、手机里常见的低功耗内存LPDDR DRAM的技术路数。这东西本事不小,专门对付那些需要又猛又快传数据,但同时又得省电的AI计算任务,属于两头都想要、两头都不耽误的类型。
具体厉害在哪?美光自己甩出来的数据挺有说服力:跟咱们平时服务器里插的那种标准RDIMM内存条比,SOCAMM传输数据的能耐(就是带宽)一下子冲到了2.5倍!而且更神的是,它个头还能缩小,同时耗电量也跟着一块儿往下砍,这俩方面都能砍掉整整三分之一!等于是体积功耗一起瘦身,性能反而猛增。
虽说NVIDIA计划在2025年搞的这个60到80万片SOCAMM的规模,比起他们同一年打算买的约莫900万片HBM(数字来源是行业对NVIDIA采购预期的判断),看起来是小巫见大巫。但这事儿信号意义可不一般!圈里明白人觉得,这很可能是内存界和背后基板供应链要变天的一个先兆。
这SOCAMM要往哪铺货?NVIDIA想法很实际:先从大公司用的AI服务器和专业人士整活用的工作站开始铺开,把“商用”这头稳住;接着呢,再瞄着咱们普通人桌上的个人电脑推进。说白了,这套路就是想走量又赚钱,同时把那些顶天的AI计算需求给喂饱了。
所以,2025年美光抢跑量产这事儿,算是为NVIDIA这个野心勃勃的SOCAMM换装计划,垫上了第一块实在的砖头。至于三星和SK海力士后面能不能追上,咱们就搬板凳看戏吧!
|
本帖子中包含更多资源
您需要 登录 才可以下载或查看,没有账号?立即注册
x
|