|
本帖最后由 Meise 于 2025-6-30 16:17 编辑
你没看错,就是死对头变供货商了! 开发ChatGPT的OpenAI居然开始用谷歌的AI芯片跑服务了,这事儿听着就跟肯德基找麦当劳买炸鸡油似的离谱。
消息来源是路透社2024年6月27日的爆料:OpenAI已经开始租赁谷歌专门研发的张量处理器(TPU),这些芯片现在正帮着驱动ChatGPT等服务运转。
需要划重点的是——过去OpenAI可是英伟达图形处理器(GPU)的头号客户,训练AI模型和运行“推理计算”(即AI根据训练结果做实时决策)全指着英伟达芯片。但随着用户量暴增,算力缺口越来越大。这不,6月初路透社才独家报道OpenAI计划接入谷歌云服务,三周左右双方就真合作上了!
谷歌的算盘也挺响
对谷歌来说,把自研TPU租给OpenAI绝不是“资敌”。他们这两年正拼命推广这款曾仅供内部使用的芯片,苹果公司已经成了客户,连OpenAI前高管创立的Anthropic和Safe Superintelligence也用上谷歌TPU了。
OpenAI的“第一次”
关键是这合作创造了两个历史性突破:
首用非英伟达芯片:这是OpenAI首次大规模使用英伟达以外的AI芯片
减少微软依赖:萨姆·奥尔特曼团队正降低对投资方微软数据中心的绑定程度
科技媒体The Information指出:租用谷歌TPU的核心目的是降低推理成本(毕竟每次使用ChatGPT都在烧钱)。但该媒体从谷歌云员工那儿挖到个细节——谷歌留了一手,没把最强性能的TPU型号提供给OpenAI。
目前谷歌官方拒绝对此置评,OpenAI接到路透社询问后也尚未回复。但这事儿雀食有意思:当OpenAI的名字出现在谷歌云客户名单里,说明谷歌把自研芯片从实验室武器变成云计算生意的战略,真就走通了。
|
本帖子中包含更多资源
您需要 登录 才可以下载或查看,没有账号?立即注册
x
|