|
|
听说没?韩国芯片巨头SK海力士刚甩出一张王炸牌——计划明年把最新一代10纳米级1c纳米DRAM的月产能直接干到现在的8倍以上!这波操作可不是简单扩产,而是掐准了AI行业正从“模型训练”转向“实际应用”的关键转折点。简单说,以前大家疯抢HBM高频宽内存是为了训练AI大脑,现在AI要落地干活了,反而更缺那些性价比高、功耗低的尖端通用内存。
产能暴增细节:从“试探”到“all-in”
先抠数字细节。根据业内消息,SK海力士打算明年在利川工厂通过生产线改造,每月多产出14万片12英寸晶圆的1c纳米DRAM。注意,这还只是保守估计!有内部人士透露,实际可能冲到16万到17万片。要知道,目前他们月均DRAM总投片量约50万片,这意味着明年近三分之一产能要倾斜给最先进的1c纳米工艺。
对比一下更直观:今年底他们的1c纳米DRAM月产能才2万片左右,到明年直接蹦到16万到19万片。这扩张速度,相当于把小区煎饼摊突然扩成连锁早餐帝国。
双线作战:HBM4和通用DRAM两手抓
SK海力士一边狂堆1c纳米DRAM产能,另一边还在同步备战明年要供货给英伟达的第六代HBM4。后者的基础芯片是更早的1b纳米DRAM,生产线设在年底投产的忠清北道M15X新工厂,月产能规划6万片晶圆。业内预测,SK海力士明年资本支出可能突破30万亿韩元,比今年25万亿韩元明显再涨一截。
为啥这么拼?因为AI行业玩法变了!早期AI拼的是训练阶段,需要HBM这种“高性能贵族内存”;但现在AI进入推理阶段,好比学霸从闭关修炼变成出门接活儿,反而需要更省电、成本更低的通用内存。比如英伟达新推出的Rubin CPX AI加速器,就直接用GDDR7显存代替HBM。谷歌、OpenAI、AWS这些自研AI芯片的大厂,也在猛堆通用DRAM的定制加速器。
1c纳米DRAM的隐藏技能树
这代1c纳米DRAM不光用在DDR5、LPDDR5等通用内存上,还是两大热门产品的核心:
GDDR7显存:英伟达下一代显卡的“弹药库”,专攻高带宽图形处理;
SOCAMM2内存模组:一种新型的AI服务器/PC内存标准,由英伟达主导。虽然带宽不如HBM,但功耗优势明显,据说要搭配英伟达自研的Vera CPU使用。业内普遍认为,SK海力士很可能拿下这部分订单。
有意思的是,SK海力士之前其实已经能把1c纳米DRAM的良率拉到80%以上,但之前HBM需求太旺,产能都优先供给HBM了。现在突然调转枪口,说明他们判断:通用DRAM的需求爆发期要来了!
行业风向标:AI从“烧钱训练”进入“省钱干活”阶段
这波产能调整背后,是AI产业落地的现实考量。训练AI模型像造宇宙飞船,烧钱用HBM不手软;但每天处理海量用户请求的推理阶段,更像网约车平台要控制油耗。这时候,1c纳米DRAM这类通用内存的“经济适用性”就凸显出来了——性能足够,电费还能省下一大截。
举个例子,如果HBM是专业赛车引擎,那高端通用DRAM就是混动家用车:市区通勤够用,续航还长。随着ChatGPT、Midjourney这类应用普及,全球服务器对“省电型高性能内存”的需求只会滚雪球式增长。
结语:内存巨头的赌注与行业暗流
SK海力士这波产能狂飙,等于押注AI推理市场会快速规模化。如果赌对了,他们不仅能吃下英伟达、谷歌等大客户的订单,还可能带动DDR5、LPDDR5等通用内存价格反弹。但风险也不小——万一AI应用落地速度不及想象,过剩的产能可能冲击内存市场定价。
不过从目前迹象看,巨头们都在默默备货。一场围绕AI推理硬件的军备竞赛,已经悄悄拉开帷幕。接下来几个月,看三星、美光怎么接招吧!
|
本帖子中包含更多资源
您需要 登录 才可以下载或查看,没有账号?立即注册
x
|