数码之家

 找回密码
 立即注册
搜索
查看: 196|回复: 3

[科技] 终结烧钱黑洞!DeepSeek用1/525成本实现GPT-4o同级MT-Bench跑分

[复制链接]
发表于 2025-4-9 08:51:50 | 显示全部楼层 |阅读模式
清华学霸团队最近搞了个大新闻!4月8日,深度求索(DeepSeek)联手清华大学推出的SPCT技术,让训练AI模型不再需要砸钱堆算力。用他们自己的话说,这个新技术能让小模型"临时抱佛脚",在推理时动态优化输出质量。

这套SPCT技术分两步走:第一步叫"拒绝式微调",先教会模型识别不同问题类型;第二步是"规则强化",让AI自己写评分标准,边推理边改答案。研究团队4月4日公开的论文显示,他们用270亿参数的DeepSeek-GRM模型做测试,每回答一个问题就生成32个备选答案挑最好的,最终效果竟然追上6710亿参数的巨无霸模型。

最离谱的是成本对比:训练这个模型只花了1.2万美元,比3400亿参数的Nemotron-4便宜100倍(后者训练费要120万美元),更是只有GPT-4o训练成本630万美元的525分之一。在MT-Bench测试里,这仨得分分别是8.35、8.41和8.72,小个子跑分居然没被大佬们甩开。

技术细节也有亮点,模型支持12.8万字的超长文本处理,回答问题只要1.4秒。更实用的是省人工——标注数据需求降了90%,能耗比传统DPO方法少73%。这意味着以后做智能机器人实时控制这种需要快速反应的项目,用这种轻量化模型更划算。

不过要划重点,这技术目前还在实验室阶段。虽然论文里数据亮眼,但实际应用效果还得看后续落地情况。团队现在重点展示的是成本优势,毕竟用1/500的成本做出相近效果,这对缺钱的中小企业确实很有吸引力。





本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

x
发表于 2025-4-9 09:18:42 | 显示全部楼层
还吹呢,风头过了
回复 支持 反对

使用道具 举报

 楼主| 发表于 2025-4-9 09:19:51 | 显示全部楼层

再不吹就彻底被人忘记了
回复 支持 反对

使用道具 举报

发表于 2025-4-9 10:57:30 | 显示全部楼层
你让老黄显卡怎么卖。
回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

APP|手机版|小黑屋|关于我们|联系我们|法律条款|技术知识分享平台

闽公网安备35020502000485号

闽ICP备2021002735号-2

GMT+8, 2025-5-1 14:30 , Processed in 0.109200 second(s), 9 queries , Redis On.

Powered by Discuz!

© 2006-2025 MyDigit.Net

快速回复 返回顶部 返回列表