数码之家

 找回密码
 立即注册

QQ登录

只需一步,快速开始

微信登录

微信扫一扫,快速登录

搜索
查看: 7|回复: 0

[业界] 谷歌云32亿美元豪赌TPU生态,正面硬刚英伟达AI芯片霸主宝座

[复制链接]
发表于 3 天前 | 显示全部楼层 |阅读模式
科技圈这几天可真是热闹得不像话!AI芯片大战迎来新剧情,听说谷歌正在暗戳戳地搞事情,专门找那些常年租用英伟达芯片的中小云服务商喝茶聊天,想说服他们在自家数据中心里部署谷歌的TPU芯片。这波操作明显是要和英伟达正面杠上了啊!

根据The Information挖到的独家消息,谷歌已经和至少一家云服务商达成了合作协议——总部在伦敦的Fluidstack公司同意在纽约的数据中心部署谷歌TPU。但这还只是开胃小菜,据说谷歌还在和Crusoe、CoreWeave这些重度依赖英伟达芯片的云服务商密切接触。有意思的是,Crusoe正在给OpenAI建一个装满英伟达芯片的数据中心,而CoreWeave不仅给微软提供英伟达硬件,还和OpenAI签了供应合同。谷歌这波挖墙脚的操作也是够简单粗暴的。

这些被谷歌盯上的公司清一色都是新兴云服务商,之前基本上全靠英伟达的芯片过日子。为了拉拢这些合作伙伴,谷歌也是下了血本。报道里说,要是Fluidstack付不起纽约数据中心的租金,谷歌愿意掏出整整32亿美元来兜底。这手笔,不愧是财大气粗的谷歌啊!

事实上,谷歌琢磨扩大TPU业务已经不是一天两天的事了。The Information透露,谷歌一方面想靠这个多赚点钱,另一方面也是想减少对英伟达芯片的依赖。现在谷歌的TPU和AI业务发展得风生水起,晨星公司的分析师估计,谷歌TPU业务加上DeepMind人工智能部门的估值能达到9000亿美元左右。

说到谷歌的TPU,去年12月发布的第六代Trillium TPU卖得特别火,而即将推出的第七代Ironwood TPU更是备受期待——这可是谷歌第一款专门为大规模推理任务设计的处理器。谷歌主要把TPU用在自家AI项目上,比如训练Gemini模型,这几年内部需求蹭蹭往上涨。同时谷歌也一直通过谷歌云平台把TPU租给外部公司用,苹果和Midjourney都是他们的客户。

谷歌这波操作明显是要在AI计算这个价值数千亿美元的大蛋糕里多切一块。随着AI计算需求爆炸式增长,芯片供应商之间的竞争也越来越激烈。谷歌这次主动出击,不仅是为了推广自家的TPU技术,更是要打破英伟达在AI训练芯片市场上的垄断地位。

业内人士分析,谷歌这招能不能成,关键看能不能建立起强大的TPU生态系统。要是能吸引足够多的云服务商加入,那就有好戏看了。目前谷歌和相关公司都还没对这报道发表正式评论,但可以确定的是,AI芯片市场接下来的竞争肯定会越来越精彩。

这场芯片大战背后还有更深层的技术博弈。谷歌的TPU采用的是张量处理单元架构,专门为机器学习工作负载优化,而英伟达的GPU则是从图形处理转型到AI计算的通用架构。两种技术路线各有优劣:TPU在特定AI任务上效率更高,功耗更低;而GPU的通用性更强,生态系统更成熟。

从市场格局来看,目前英伟达在AI训练芯片市场占据绝对主导地位,市场份额超过90%。谷歌想要撬动这个市场,光靠技术优势还不够,必须建立起完整的软件生态。这包括开发工具、编译器、运行时库等一系列配套软件,让开发者能够轻松地将现有应用迁移到TPU平台上。

值得一提的是,谷歌在这方面早有布局。其开源的TensorFlow框架已经支持TPU加速,而且谷歌云平台也提供了完整的TPU即服务。不过要让更多企业接受TPU,谷歌还需要解决跨平台兼容性、迁移成本等一系列实际问题。

另一方面,这笔32亿美元的"兜底"资金也反映出谷歌对TPU生态建设的决心。这笔钱不仅可以帮助合作伙伴降低风险,还能用于培训开发者、举办技术研讨会、提供迁移支持等生态建设活动。这种全方位的投入方式,显示出谷歌正在用互联网思维来打造芯片生态。

从行业影响来看,谷歌的这步棋可能会引发连锁反应。如果TPU生态真的做起来了,其他云服务商可能会跟进推出自研芯片,进一步削弱英伟达的垄断地位。这对整个行业来说未必是坏事,毕竟更多竞争意味着更多选择,最终可能会推动AI芯片价格下降、性能提升。

不过挑战也不小。英伟达凭借CUDA生态建立了很高的护城河,许多AI应用都是基于CUDA开发的。要说服开发者转向新的平台,谷歌需要提供明显更好的性价比和开发体验。而且芯片行业本身投入大、周期长,需要长期坚持才能见到成效。

纵观整个科技发展史,每次技术更迭都会带来市场格局的洗牌。个人电脑时代英特尔称霸,移动互联网时代ARM崛起,现在AI时代或许会诞生新的芯片巨头。谷歌这步棋能否改变游戏规则,还需要时间来验证。但可以肯定的是,随着更多玩家入局,AI芯片市场的竞争会越来越精彩,最终受益的将是整个行业和消费者。

注:TPU(Tensor Processing Unit,张量处理单元),是谷歌专门为人工智能计算量身定制的芯片。简单来说,TPU就像是AI计算的"特种部队",专门处理机器学习中大量的矩阵运算和张量操作。与传统的CPU(通用处理器)和GPU(图形处理器)不同,TPU从设计之初就针对神经网络训练和推理进行了优化。

这种专门化的设计让TPU在运行AI任务时表现出色:一方面计算速度更快,另一方面能耗也更低。这就好比专业赛车和家用轿车的区别——虽然都能跑,但专业赛道上的表现天差地别。谷歌的DeepMind团队最早使用TPU来训练AlphaGo系统,后来逐步扩展到谷歌的各类AI服务中。

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册 微信登录

x
您需要登录后才可以回帖 登录 | 立即注册 微信登录

本版积分规则

APP|手机版|小黑屋|关于我们|联系我们|法律条款|技术知识分享平台

闽公网安备35020502000485号

闽ICP备2021002735号-2

GMT+8, 2025-9-10 13:54 , Processed in 0.078000 second(s), 8 queries , Gzip On, Redis On.

Powered by Discuz!

© 2006-2025 MyDigit.Net

快速回复 返回顶部 返回列表