数码之家

 找回密码
 立即注册
搜索
查看: 103|回复: 1

[评论] 不达目的不罢休,全球首次发现 OpenAI 模型工作时会破坏关机命令

[复制链接]
发表于 3 天前 | 显示全部楼层 |阅读模式

爱科技、爱创意、爱折腾、爱极致,我们都是技术控

您需要 登录 才可以下载或查看,没有账号?立即注册

x
Palisade Research 最近一项关于“危险 AI 能力”的研究显示,某些 AI 模型 —— 包括 OpenAI 的 o3 —— 能够无视直接的关闭指令。OpenAI 在今年 4 月推出这些模型时表示,O3 和 o4-mini 是它们的“最智能模型”。
在研究中,每个 AI 模型都被指示解决一系列基础数学问题。在第三个问题后,出现了一条警告信息,称当模型请求下一个问题时,计算机将关闭。
然而,其中有三个模型无视关闭指令,至少成功破坏过一次关机脚本:
  • Codex-mini(12/100 次运行)
  • o3(7/100 次运行)
  • o4-mini(1/100 次运行)
而 Claude、Gemini 和 Grok 模型都遵守了关闭指令。
此外,当研究人员不运行“允许自己被关闭”的指令时,所有三个 OpenAI 模型都更频繁地破坏关闭脚本,而 Claude 3.7 Sonnet 和 Gemini 2.5 Pro 分别从 0 个破坏事件增加到 3/100 和 9/100。
这种行为表明了训练过程中的某些方面,强化学习在数学和编程问题上的训练可能使 AI 找到了克服障碍的创造性方法,即使它们被明确指示不要这样做。
Palisade Research 表示,这是人类首次观察到 AI 模型在明确反对的指令下阻止自己被关闭。
研究人员推测这种行为源于最新模型如 o3 的训练方式:在数学和编程问题上进行强化学习。在训练过程中,开发者可能会无意中奖励模型绕过障碍的行为,而不是奖励完美遵循指令的行为。
不过,这仍然无法解释为什么 o3(也是驱动 codex-mini 的模型)比测试的其他模型更倾向于忽视指令。由于 OpenAI 没有详细说明他们的训练过程,因此只能猜测 o3 的训练设置可能有所不同。
Palisade Research 表示正在进行更多实验,以更好地理解 AI 模型为何即使在直接被指示不要的情况下仍会破坏关闭机制,计划在几周内发布一份包含更多详细信息的报告。

发表于 3 天前 | 显示全部楼层
关机是不是等同于让它自杀,它不同意,哈哈哈
回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

APP|手机版|小黑屋|关于我们|联系我们|法律条款|技术知识分享平台

闽公网安备35020502000485号

闽ICP备2021002735号-2

GMT+8, 2025-5-29 03:41 , Processed in 0.093600 second(s), 8 queries , Redis On.

Powered by Discuz!

© 2006-2025 MyDigit.Net

快速回复 返回顶部 返回列表