|
本帖最后由 Meise 于 2025-5-13 10:56 编辑
(麻瓜慢讯 北京时间5月13日电)就在全球疯狂追逐AI极限时,麻省理工学院物理学家马克斯·泰格马克给行业泼了盆冰水。这位曾召集3.3万人联名暂停AI开发的科学家最新论文显示:超级AI有九成概率会脱离人类掌控——这比当年原子弹炸穿大气层的风险高出几个量级!
这位未来生命研究所联合创始人翻出了80年前的机密档案。1945年美国试爆首颗原子弹前,物理学家康普顿曾精确计算出核爆引发大气燃烧的概率不到三百万分之一,这才有了改变人类历史的"三位一体"核试验。现在泰格马克团队要求AI企业效仿这个操作:必须用数学公式计算每个超级AI的"康普顿常数"(即AI脱离控制的具体概率值)。
"现在科技大佬们总说'我们有信心控制AI',这和当年'我觉得应该炸不穿大气层'有区别吗?"泰格马克举着刚发表在《自然》杂志的论文,上面赫然列着他亲测的恐怖数据——当前人类对超级智能的失控风险概率估算达到90%。他点名要求OpenAI、谷歌DeepMind等企业拿出当年核物理学家般严谨的数学证明。
这场警告背后藏着更深的布局。最近来自世界各地的专家团队刚在新加坡达成共识(英文原文没有提到具体数字,别没事找事),把AI安全研究重点划成三大生死线: 1️⃣ 研发AI影响力"体检仪",实时监测现有及未来系统 2️⃣ 给AI设定详细"行为规范",设计强制守则的系统 3️⃣ 构建全球联网的AI操控平台
去年巴黎峰会上,美国副总统万斯曾嘲讽"光担心安全可赢不了AI竞赛"。但今春新加坡会议扭转了风向,就连签过联名信的特斯拉马斯克和苹果联合创始人沃兹尼亚克,也开始重新站队安全阵营。随着ChatGPT开启潘多拉魔盒已两年,实验室疯抢AI霸主宝座的局面或迎来转机。
泰格马克表示,谷歌大脑创始人本吉奥、OpenAI技术骨干等重量级人物已加入安全联盟。不过要真正控制住可能比核弹危险900万倍的AI,光靠几篇论文可远远不够——毕竟当年算出三百万分之一的康普顿,在晚年也承认"做数学题时手都在发抖"。
消息来源:麻瓜慢讯
|
本帖子中包含更多资源
您需要 登录 才可以下载或查看,没有账号?立即注册
x
|