数码之家

 找回密码
 立即注册

QQ登录

只需一步,快速开始

微信登录

微信扫一扫,快速登录

搜索
查看: 178|回复: 1

[科技] 英伟达发布四款“通晓小钢炮”AI模型,咱家游戏电脑也能本地跑推理了​

[复制链接]
发表于 2025-7-20 19:13:51 | 显示全部楼层 |阅读模式
本帖最后由 Meise 于 2025-7-20 19:29 编辑

朋友们,就在今天(2025年7月20日),英伟达干了件特接地气的事儿——让咱们普通玩家桌上的游戏电脑,也能跑得动那些贼厉害的推理大模型了!这家芯片巨头整整齐齐扔出四款新宝贝:OpenReasoning-Nemotron 系列(中文名「通晓-Nemotron」),型号分别是1.5B、7B、14B和32B。别看参数规模有大小,这些小兄弟们的知识,全是从那个6710亿参数的顶尖大佬DeepSeek R1 0528那儿一点一点「学」(蒸馏)出来的精华内容。

这操作就像把大学教授满肚子学问,浓缩成高中生能随身带的精华讲义。最香的是:再不用盯着云端算力账单肉疼,也不必非买天价专业GPU才能玩转AI推理。你打游戏的那台电脑插上块消费级显卡,这些模型就能跑得溜,效果还相当够看。

实现「小身材大能耐」的秘诀?说出来有点意外:不靠复杂黑科技,全凭实打实的真材实料!英伟达用自家NeMo Skills数据流程,攒出个装足500万道数学、科学、编程题解的数据集,再用「监督学习」精细打磨模型。成果多硬核?看成绩单就知道:顶配32B版在去年高难度AIME24数学测试斩获89.2分,在哈佛MIT数学竞赛(HMMT)二月赛拿到73.8分;连最小的1.5B版也考出55.5分和31.5分,同体量里绝对是优等生。

英伟达定位很明确:这批模型是给AI研究社区的「趁手工具包」。四个型号现已登陆开发者大本营Hugging Face。对想研究强化学习(RL)提升推理能力的人来说,简直是块神仙试验田——因为英伟达只用监督学习精调,半点强化学习都没掺,模型「底子」干净得发光!

还有个神器功能叫「GenSelect」:让模型把问题多琢磨几遍(多轮运算),它自己会挑出最靠谱的答案。实测开启这模式后,32B模型在数学解题和编程任务上,直接和OpenAI当红的o3-high模型打得有来有回,某些场景还能小胜!

技术亮点直给:
​​家用电脑轻松带​​:1.5B/7B/14B/32B四兄弟,主流游戏显卡就能跑
​​知识源头够硬核​​:师承6710亿参数的顶级模型DeepSeek R1 0528
​​训练数据全是干货​​:500万道数理编程题解+监督学习精调
​​考试成绩说话​​:32B版AIME24拿89.2分,HMMT二月赛73.8分;1.5B版也有55.5/31.5分
​​解题黑科技​​:GenSelect模式靠多轮运算筛出最优解
​​底子纯净好改造​​:未引入强化学习,社区RL实验的完美起点
​​开放下载即取即用​​:全系列已登陆Hugging Face

总之不管你是搞AI研究的开发者,还是想在家用电脑爽玩推理又不想烧钱的玩家,英伟达这波操作给大伙儿塞了个既实在又强悍的选择——本地推理的门槛,哐当一声砸地上了!





本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册 微信登录

x
您需要登录后才可以回帖 登录 | 立即注册 微信登录

本版积分规则

APP|手机版|小黑屋|关于我们|联系我们|法律条款|技术知识分享平台

闽公网安备35020502000485号

闽ICP备2021002735号-2

GMT+8, 2025-8-2 21:55 , Processed in 0.249601 second(s), 9 queries , Redis On.

Powered by Discuz!

© 2006-2025 MyDigit.Net

快速回复 返回顶部 返回列表