|
人工智能巨头OpenAI在今年六月干了一件大事:开始用谷歌的TPU芯片处理ChatGPT的海量用户请求。这可是OpenAI头一回在核心业务里撤下英伟达的显卡,换上了别人家的处理器。
以前OpenAI全家都指望着英伟达的显卡干活。不管是训练AI模型还是回答用户问题,清一色用的都是英伟达。训练模型虽然烧钱但好歹有个头,而用户问答服务(行话叫推理)现在可是24小时连轴转——目前ChatGPT每天要应付1亿个活跃用户,里面还有2500万是氪金会员。单这一项就吃掉OpenAI每年400亿美元计算预算的小一半。
谷歌最新推出的v6e"三色堇"芯片(Trillium)专为高强度问答设计,跑日常任务比通用显卡更划算。不过OpenAI看中的不只是省钱,更关键的是打破供应商垄断。这些年他们主要绑在微软Azure云服务上,但显卡紧缺和价格波动没少惹麻烦。现在引入谷歌云服务,相当于给计算能力加了道保险。
谷歌这回可长脸了:以前TPU芯片基本就自家用(比如训练Gemini模型),现在不光打进OpenAI的生产线,连苹果和Anthropic也成了客户。更厉害的是谷歌手里还捏着张王牌——专为训练AI设计的v6p芯片还没亮相,这意味着企业以后能把整个AI训练业务都搬上谷歌云。
当前进展
ChatGPT部分问答服务已转用谷歌TPU
模型训练仍保留英伟达显卡
OpenAI拒绝透露具体切换比例
(注:所有数据源自企业公开信息,芯片代号Trillium经谷歌官网确认)
|
本帖子中包含更多资源
您需要 登录 才可以下载或查看,没有账号?立即注册
x
|