|
各位数码圈的老铁们,今天咱们继续来吃个科技圈的大瓜。你说现在这AI发展速度,简直比坐飞机还快,前几天刚听说AMD和OpenAI牵手成功,这转头就又爆出个大新闻——三星要把AMD下一代MI450加速卡的HBM4内存全包了!这感觉就像看一部商战连续剧,AMD一边拉着OpenAI的手,一边搂着三星的肩膀,明显是要在AI芯片领域搞点大动静。
首先给不太了解情况的小伙伴们简单捋一捋这个关系。你们知道现在训练AI模型最需要什么吗?除了强大的芯片,更关键的是内存,而且不是普通内存,是那种叫HBM的高带宽内存。这玩意儿就像是给AI芯片配的"超级加油枪",数据传输速度那叫一个快。
现在市面上最顶级的HBM3e内存已经让ChatGPT这样的AI模型训练速度飞快,而下一代HBM4的性能更是要上天。据说三星这次能拿下AMD的订单,就是因为在HBM技术上有独门绝技。
说起来三星和AMD也算是老搭档了。目前AMD的MI350X和MI355X芯片用的就是三星和美光提供的12层HBM3e内存。这次合作升级到HBM4,等于是从"普通朋友"升级到了"铁哥们"的关系。
不过最近这几天科技圈的消息一个比一个劲爆。先是AMD宣布和OpenAI签了多年合作协议,据说这笔合作规模大到涉及6吉瓦的电力供应,而且OpenAI还能收购AMD最多10%的股份。这意味着什么?等于是OpenAI在给自己找备选方案,不想完全依赖英伟达。
但更夸张的是OpenAI的"星门"数据中心项目的胃口。根据业内消息,这个项目可能需要的DRAM晶圆数量高达90万片!这个数字是什么概念?差不多相当于全球DRAM总产量的40%。也就是说,未来全世界四成的内存产能可能都要供给OpenAI一家用,这阵仗真是前所未见。
而且据韩国媒体报道,三星给OpenAI准备的不仅仅是HBM内存,还包括显卡DRAM、大容量SSD,甚至还有带内存内计算功能的低功耗LPDDR5X-PIM。看来三星这次是下血本了,把看家本领都拿出来了。
现在的AI芯片市场越来越像一场"选边站队"的游戏。这边AMD刚和OpenAI牵手,那边英特尔就投入了英伟达的怀抱。为了对抗英伟达的NVLink技术,AMD在推广自己的Ultra Accelerator Link开放标准。这个UALink联盟已经聚集了苹果、谷歌、微软、新思科技、Meta等科技巨头,之前英特尔也有意加入。
但有意思的是,在英特尔宣布和英伟达合作后,它在UALink联盟的位置就有点尴尬了。这好比同时参加两个对家的聚会,处境相当微妙。这也反映出当前AI芯片市场正在重新洗牌,各大厂商都在布局。
说到HBM4技术,这次升级可不是小打小闹。相比现在的HBM3e,HBM4在带宽、容量和能效上都有大幅提升。对AMD的MI450这样的加速卡来说,HBM4就像是给跑车换上了更强劲的引擎,能让AI模型训练速度再上一个台阶。
业内人士猜测,三星这次提供的可能还不是普通版本的HBM4,而是特别优化的定制版本。毕竟AMD的MI450是针对下一代AI工作负载设计的,对内存性能的要求特别高。
现在来看这笔交易,就能明白为什么说它是"战略级"合作。对AMD来说,有了三星的HBM4稳定供应,MI450芯片的量产就有了保障;对三星来说,拿下AMD这个大客户,意味着在HBM4市场上占据了有利位置;而对OpenAI来说,AMD芯片的顺利量产意味着它有了更多选择权。
这场AI芯片大战越来越精彩了。一边是英伟达凭借先发优势占据主导,一边是AMD联合三星、OpenAI等一众伙伴全力追赶。而且别忘了,谷歌、亚马逊这些云服务巨头也在自研AI芯片,未来的竞争肯定会更加激烈。
说到底,AI时代的技术竞争已经超越了单纯的产品比拼,变成了生态系统之间的较量。三星这次拿下AMD的HBM4大单,无疑是在AI芯片这场大戏中抢到了一个重要角色。随着各大厂商纷纷布局,未来的AI市场可能会呈现出更加多元化的格局。不过最终受益的应该还是我们这些用户,毕竟有竞争才有更好的产品和服务。接下来就看这些科技巨头们还能带来哪些惊喜了,这场AI大战才刚刚开始,好戏还在后头呢。
|
本帖子中包含更多资源
您需要 登录 才可以下载或查看,没有账号?立即注册
x
|