|
硅谷那家神秘感拉满、一出手就吸金20亿美元的AI实验室——Thinking Machines Lab,总算没继续“神隐”。最近他们放出了第一篇研究长文,直接捅破了一层行业窗户纸:为啥你问ChatGPT同一个问题,每次答案都像开盲盒?
这篇名为《打败大模型推理中的非确定性》的博文,出自研究员Horace He之手。他一点没客气,直接把矛头指向了大模型推理过程中最底层、也最容易被忽略的一环——英伟达GPU里面那些负责计算的“内核程序”(kernel)是怎么协调干活的。
简单来说,现在这些AI每次回答你问题时,底层调用计算资源的方式有点像“随机组队打副本”,每次队友配合都不一样,结果输出也看心情。而Thinking Machines Lab想干的,就是给这套流程立点规矩,让计算过程更可控,让AI的输出稳如老狗。
但这可不只是让聊天机器人变得更“听话”那么简单。尤其对企业用户和科研党来说,AI回答老是飘忽不定,根本没法放心用——写代码、分析数据、生成报告,哪敢交给一个随缘选手?
更值得一提的,是这事儿和强化学习(Reinforcement Learning, RL)的关系。RL本身就像是AI的“夸夸训练营”,答对了给奖励,引导模型越学越准。可如果模型自己输出都不稳定,反馈信号就会吵得像菜市场,训练效率直接打折。所以,如果能控制输出结果,RL的训练过程会顺滑不少,定制化模型的效率也会大大提高。
Thinking Machines Lab之前就向投资人透露过,他们想用RL技术帮企业定制AI模型。现在看来,这篇博客里提到的“确定性推理”,很可能就是他们产品化道路上的关键一步。
说到产品,创始人Mira Murati(对,就是那位OpenAI前CTO)早在七月份就预告过:他们的第一款产品将在几个月内发布,专门面向“搞研究的和初创公司”。虽然还没官宣具体是啥,但外界已经忍不住猜:会不会就是一个能控制AI输出稳定性的工具?
另一点挺拉好感的,是他们承诺会持续分享研究进展,甚至开源部分代码。这篇博客就是新栏目“Connectionism”的开篇之作。他们直言:“科学只有在分享中才能进步”。是不是瞬间梦回OpenAI早年那种开放精神?不过也有人吐槽:当年OpenAI也是这么说的,后来嘛…懂的都懂。所以这次,穆拉蒂的团队能不能真的坚持开放,还得走着瞧。
无论如何,这家号称估值已冲上120亿美元的明星初创,终于不再只靠阵容和融资额刷存在感,而是实打实抛出技术观点,挑战AI行业“默认接受”的问题。
现在压力可来到了其他AI公司这边:如果Thinking Machines真能搞定“非确定性”,让AI回答不再抽风——你们跟还是不跟?
|
本帖子中包含更多资源
您需要 登录 才可以下载或查看,没有账号?立即注册
x
|