数码之家

 找回密码
 立即注册

QQ登录

只需一步,快速开始

微信登录

微信扫一扫,快速登录

搜索
查看: 37|回复: 0

[业界] ​​Thinking Machines实验室要治治AI的“精分”,让输出不再看心情​

[复制链接]
发表于 2 小时前 | 显示全部楼层 |阅读模式
硅谷那家神秘感拉满、一出手就吸金20亿美元的AI实验室——Thinking Machines Lab,总算没继续“神隐”。最近他们放出了第一篇研究长文,直接捅破了一层行业窗户纸:为啥你问ChatGPT同一个问题,每次答案都像开盲盒?

这篇名为《打败大模型推理中的非确定性》的博文,出自研究员Horace He之手。他一点没客气,直接把矛头指向了大模型推理过程中最底层、也最容易被忽略的一环——英伟达GPU里面那些负责计算的“内核程序”(kernel)是怎么协调干活的。

简单来说,现在这些AI每次回答你问题时,底层调用计算资源的方式有点像“随机组队打副本”,每次队友配合都不一样,结果输出也看心情。而Thinking Machines Lab想干的,就是给这套流程立点规矩,让计算过程更可控,让AI的输出稳如老狗。

但这可不只是让聊天机器人变得更“听话”那么简单。尤其对企业用户和科研党来说,AI回答老是飘忽不定,根本没法放心用——写代码、分析数据、生成报告,哪敢交给一个随缘选手?

更值得一提的,是这事儿和强化学习(Reinforcement Learning, RL)的关系。RL本身就像是AI的“夸夸训练营”,答对了给奖励,引导模型越学越准。可如果模型自己输出都不稳定,反馈信号就会吵得像菜市场,训练效率直接打折。所以,如果能控制输出结果,RL的训练过程会顺滑不少,定制化模型的效率也会大大提高。

Thinking Machines Lab之前就向投资人透露过,他们想用RL技术帮企业定制AI模型。现在看来,这篇博客里提到的“确定性推理”,很可能就是他们产品化道路上的关键一步。

说到产品,创始人Mira Murati(对,就是那位OpenAI前CTO)早在七月份就预告过:他们的第一款产品将在几个月内发布,专门面向“搞研究的和初创公司”。虽然还没官宣具体是啥,但外界已经忍不住猜:会不会就是一个能控制AI输出稳定性的工具?

另一点挺拉好感的,是他们承诺会持续分享研究进展,甚至开源部分代码。这篇博客就是新栏目“Connectionism”的开篇之作。他们直言:“科学只有在分享中才能进步”。是不是瞬间梦回OpenAI早年那种开放精神?不过也有人吐槽:当年OpenAI也是这么说的,后来嘛…懂的都懂。所以这次,穆拉蒂的团队能不能真的坚持开放,还得走着瞧。

无论如何,这家号称估值已冲上120亿美元的明星初创,终于不再只靠阵容和融资额刷存在感,而是实打实抛出技术观点,挑战AI行业“默认接受”的问题。

现在压力可来到了其他AI公司这边:如果Thinking Machines真能搞定“非确定性”,让AI回答不再抽风——你们跟还是不跟?

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册 微信登录

x
您需要登录后才可以回帖 登录 | 立即注册 微信登录

本版积分规则

APP|手机版|小黑屋|关于我们|联系我们|法律条款|技术知识分享平台

闽公网安备35020502000485号

闽ICP备2021002735号-2

GMT+8, 2025-9-12 09:41 , Processed in 0.093600 second(s), 7 queries , Gzip On, Redis On.

Powered by Discuz!

© 2006-2025 MyDigit.Net

快速回复 返回顶部 返回列表