|
本帖最后由 Meise 于 2025-7-20 19:29 编辑
朋友们,就在今天(2025年7月20日),英伟达干了件特接地气的事儿——让咱们普通玩家桌上的游戏电脑,也能跑得动那些贼厉害的推理大模型了!这家芯片巨头整整齐齐扔出四款新宝贝:OpenReasoning-Nemotron 系列(中文名「通晓-Nemotron」),型号分别是1.5B、7B、14B和32B。别看参数规模有大小,这些小兄弟们的知识,全是从那个6710亿参数的顶尖大佬DeepSeek R1 0528那儿一点一点「学」(蒸馏)出来的精华内容。
这操作就像把大学教授满肚子学问,浓缩成高中生能随身带的精华讲义。最香的是:再不用盯着云端算力账单肉疼,也不必非买天价专业GPU才能玩转AI推理。你打游戏的那台电脑插上块消费级显卡,这些模型就能跑得溜,效果还相当够看。
实现「小身材大能耐」的秘诀?说出来有点意外:不靠复杂黑科技,全凭实打实的真材实料!英伟达用自家NeMo Skills数据流程,攒出个装足500万道数学、科学、编程题解的数据集,再用「监督学习」精细打磨模型。成果多硬核?看成绩单就知道:顶配32B版在去年高难度AIME24数学测试斩获89.2分,在哈佛MIT数学竞赛(HMMT)二月赛拿到73.8分;连最小的1.5B版也考出55.5分和31.5分,同体量里绝对是优等生。
英伟达定位很明确:这批模型是给AI研究社区的「趁手工具包」。四个型号现已登陆开发者大本营Hugging Face。对想研究强化学习(RL)提升推理能力的人来说,简直是块神仙试验田——因为英伟达只用监督学习精调,半点强化学习都没掺,模型「底子」干净得发光!
还有个神器功能叫「GenSelect」:让模型把问题多琢磨几遍(多轮运算),它自己会挑出最靠谱的答案。实测开启这模式后,32B模型在数学解题和编程任务上,直接和OpenAI当红的o3-high模型打得有来有回,某些场景还能小胜!
技术亮点直给:
家用电脑轻松带:1.5B/7B/14B/32B四兄弟,主流游戏显卡就能跑
知识源头够硬核:师承6710亿参数的顶级模型DeepSeek R1 0528
训练数据全是干货:500万道数理编程题解+监督学习精调
考试成绩说话:32B版AIME24拿89.2分,HMMT二月赛73.8分;1.5B版也有55.5/31.5分
解题黑科技:GenSelect模式靠多轮运算筛出最优解
底子纯净好改造:未引入强化学习,社区RL实验的完美起点
开放下载即取即用:全系列已登陆Hugging Face
总之不管你是搞AI研究的开发者,还是想在家用电脑爽玩推理又不想烧钱的玩家,英伟达这波操作给大伙儿塞了个既实在又强悍的选择——本地推理的门槛,哐当一声砸地上了!
|
本帖子中包含更多资源
您需要 登录 才可以下载或查看,没有账号?立即注册
x
|