|
本帖最后由 Meise 于 2025-7-19 22:01 编辑
现在用个ChatGPT之类的AI工具,谁没碰上过卡壳或者慢半拍的时候?甭管多聪明的AI,跑起来都得靠堆成山的芯片和机房撑着。OpenAI——ChatGPT背后的那家全球顶流AI公司,最近就为了这,办了一件挺让业内瞪大眼睛的事儿:他们悄无声息地把自家最大竞争对手之一,谷歌(Google),正式加入了服务商名单。意思很明白,往后谷歌家的云计算资源,也要帮着OpenAI给ChatGPT和其他AI产品打工了。
这个变化是在OpenAI官网的一个子页面里被人发现的。OpenAI在这页列出了他们称为“子处理器”(sub-processors)的合作方名单,这些公司是受OpenAI委托来帮忙处理用户数据的。谷歌云计算(Google Cloud)的名字最近悄然出现在了这份名单里。对普通用户来说,可能感觉没啥大不了的。可放在整个AI行业的背景下看,这动静着实不小。
作为微软重金支持的公司,OpenAI经常被看作是谷歌在AI战场上最强力的竞争者。这两巨头往AI里头砸的钱都是百亿美金级别,从聊天机器人的能力高低,到搜索引擎市场份额的攻防,竞争无所不在。有意思的是,如今,OpenAI却要向它奋力追赶的目标——谷歌——租用服务器场地和计算能力了。
今年早些时候(2025年初),OpenAI的CEO萨姆·奥尔特曼(Sam Altman)在社交平台X(原推特)上接连发了几个帖子,承认公司基础设施跟不上趟了。问题关键是:严重缺显卡,也就是那些叫GPU的专用芯片。少了这些“引擎”,像ChatGPT这样的大型AI模型根本转不起来。GPU这玩意儿,不仅造价昂贵,产量有限,还被几家科技巨头牢牢握在手里。
奥尔特曼在4月份说得直白:“我们正在努力让情况稳定下来,但大家应该对OpenAI发布新东西的速度有个心理准备——可能会慢点,可能会有小毛病,服务也可能偶尔抽风,都因为我们这算力实在不够用。” 他还补了一句:“要是哪位手里有大量闲置GPU资源(10万个单元起)能尽快提供,电话联系!” 听着像是玩笑?真不是。
几个月来,OpenAI一直在想办法稳住自家的系统。现在我们知道了其中一条路子:就是抱上谷歌云的大腿。通过这个合作,OpenAI就能用上谷歌那一大批全球顶尖的AI专用硬件和数据中心。谷歌、亚马逊和微软一样,都运营着超大型的服务器集群,对外出租算力。谷歌的优势恰恰在于:它有足够的芯片库存来喂饱海量的需求。如果你最近几周感觉ChatGPT有时卡卡的,或者干脆掉链子不干活了,不用猜,这就是成千上万用户同时涌上去、把OpenAI服务器挤爆了的结果。现在每天有几百万人在用它,公司的硬件设施增长没跟上需求的膨胀速度。
谷歌云的加入,有望让情况好转。这意味着将来ChatGPT的响应速度可能会变快,在线服务更稳定些,那些被耽搁的新功能也有望放出来。更重要的是,OpenAI的技术团队终于能腾出手来,把精力更多地放在核心的AI研究和产品开发上,而不是天天为抢购不到显卡发愁。
这事儿还暴露了一个更深层的事实:关于AI未来的讨论里,尽管很多公司都在讲独立自主、去中心化、颠覆旧格局什么的,可现实很骨感——真正关键的硬件命脉,仍然掌握在几家科技巨头手里。无论是设计制造先进芯片的能力,还是建造运营庞大的数据中心,亦或是提供云计算服务,像谷歌、微软、亚马逊这些老牌玩家,仍然是整个数字世界的基石,AI也跑不出这个圈。
所以你看,表面上看OpenAI和谷歌是激烈竞争的对手,私底下,为了撑起不断进化的AI服务,他们已经把手握在了一块儿。这对咱们一般用户来说,没准意味着未来的AI世界,各路大神之间关系会缠得更紧,谁也离不开谁了。
|
本帖子中包含更多资源
您需要 登录 才可以下载或查看,没有账号?立即注册
x
|