|
本周三,英伟达在AI领域投下一枚"超级算力导弹"——正式推出DGX Cloud Lepton云平台。这个被黄仁勋称为"AI工厂流水线"的全新服务,正在把全球数以万计的GPU资源变成开发者触手可及的"云端零件超市"。
GPU版滴滴打车来了?
DGX Cloud Lepton的核心玩法很"极客":开发者登录平台后,可像叫网约车般在全球合作伙伴网络中"下单"GPU资源。CoreWeave、富士康、软银等首批入驻的云服务商,已在系统中部署从北美到亚洲的多区域GPU集群。用户既能按需租用临时算力突击项目,也可包年包月建立专属AI训练基地,这招直接把英伟达的硬件版图从芯片厂扩展成了"算力调度中心"。
软件全家桶才是真杀手锏
更让开发者心跳加速的,是预装在平台里的英伟达技术栈全家桶:
NIM微服务直接打包好大模型预训练模版
NeMo框架支持自定义AI代理快速迭代
Blueprint可视化工具像搭积木一样设计AI工作流
所谓"用车还送司机",开发者接入后即可调用现成的CUDA加速环境,把调试显卡驱动的痛苦彻底留在2024年。
云服务商乐翻天?背后有玄机
对于入驻的云计算厂商来说,这个平台的设备管理面板堪称"机房保姆":
实时监测每块GPU的温度和负载曲线
自动诊断故障原因并生成维修报告
智能分配计算任务减少空置率
据内部测试,这套系统能将服务器停机时间缩短38%。想象一下,全球混乱的GPU集群突然被装上了中央控制塔,这或许是英伟达从硬件巨头向AI生态主导者的关键一跃。
黄仁勋在发布会现场演示时调侃:"现在每个开发者都是掌柜,我的GPU就是你们仓库里的'水电煤'。"目前该平台已开放注册,首批资源池覆盖12个国家的23个数据中心,数据中心之间通过专有光缆实现算力调度,最低可按单张H100显卡小时计费。当全球算力变成自来水般的公共资源,AI创新的天花板或许正要被捅破。
|
本帖子中包含更多资源
您需要 登录 才可以下载或查看,没有账号?立即注册
x
|