|
你们有没有发现,最近半导体圈的气氛有点微妙——台积电那边先进封装产能抢破头,英特尔代工业务却一直没啥大动静,直到今天这个猛料出来:微软要把下一代AI加速器Maia 2的制造订单交给英特尔,用他们的18A或18A-P工艺!这消息最开始是从行业爆料王Charlie Demerjian那儿流出来的,后来被X平台网友@Jukanlosreve一转,直接就在科技圈炸锅了。
要知道,英特尔搞代工业务可不是一天两天了,但过去几年总给人感觉雷声大雨点小,外部大客户一直观望得多、真下手的少。微软这一单,简直像给英特尔代工部门发了张“社会性认可卡”。而且注意啊,这次用的可能是18A的升级版18A-P,这玩意儿在原有18A基础上塞进了第二代RibbonFET晶体管和PowerVia技术,简单说就是电路结构更聪明、漏电更少、能耗更低。具体到设计上,低阈值电压元件重新调教了,抗漏电组件优化了,连晶体管带宽度都微调了,目标就一个:让AI芯片在单位功耗下算得更狠。为啥这么纠结能效?现在数据中心动不动部署几万张加速卡,电费账单看一眼都能让人血压飙升,芯片效率差1%都可能多烧掉一台超跑的钱。
再说微软的Maia芯片,第一代Maia 100是台积电5纳米工艺造的,用了CoWoS-S封装,芯片面积大到820平方毫米,默认功耗500瓦(但设计上限能冲到700瓦),集成64GB HBM2E内存,带宽1.8TB/秒,还堆了500MB的L1/L2缓存。性能方面,6位精度下算力峰值3 PetaOPS,9位精度时1.5 PetaOPS,BF16精度下是0.8 PetaFLOPS。联网能力也挺夸张,12个400GbE端口提供600GB/秒后端带宽,PCIe Gen 5 x8接口给主机通信留了32GB/秒的通道。这配置基本就是贴着数据中心AI训练的极限需求设计的。
那微软为啥要从台积电转单?业内老炮们分析有两种可能:一是微软在搞供应商多元化,避免把鸡蛋全放一个篮子里。(这里插一句,台积电的CoWoS封装之所以被抢破头,是因为当今最火的AI芯片,比如训练ChatGPT的那些,全得靠这种高级封装技术把计算核心和高速内存紧紧“捆”在一起,才能实现惊人的数据处理速度。这东西现在全球都缺货,成了AI领域最抢手的稀缺资源)。 二是英特尔这次给的条件可能真有诱惑力。18A-P工艺专门为高性能计算和AI场景优化,而更未来的18A-PT技术甚至支持芯片之间直接通过硅通孔垂直连接,还能玩高级混合键合,这对需要把多个小芯片拼成“超级芯片”的复杂AI模型来说简直是神器。如果Maia 2试产良率高、交付快,微软后续可能连封装都打包用英特尔的方案,比如14A节点。
不过英特尔想靠这单彻底翻身,还得解决两个老大难问题:良品率和交付速度。台积电的CoWoS封装现在被各大厂抢得头破血流,微软这时候分单给英特尔,台积电那边估计得连夜开复盘会了。有意思的是,微软这波操作留了后手——Maia 2成功了就继续押注英特尔更先进的工艺,万一不顺还能退回台积电的成熟产线,怎么都不亏。
说到底,这订单背后是场三方博弈:微软要算力、英特尔要证明自己能打、台积电要守江山。后续剧情怎么发展,得看英特尔能不能把实验室数据变成生产线上的实绩了。咱们就蹲个后续,说不定明年这时候,Azure机房里的AI芯片真要换“芯”潮了。
|
本帖子中包含更多资源
您需要 登录 才可以下载或查看,没有账号?立即注册
x
|