|
人工智能公司Anthropic近日在法庭上遭遇大型社死现场——其法律文件中被发现存在AI编造的虚假引用,不得不向法官承认自家聊天机器人Claude犯了"令人尴尬的无心之过"。这场闹剧起源于4月30日提交的一份关键证据。
据法庭记录显示,Anthropic数据科学家Olivia Chen在为公司辩护时提交的文件中,引用了一篇看似权威的学术文章。这份文件用于反驳环球音乐集团(UMG)、ABKCO和康科德(Concord)等音乐出版商的指控,后者认为Claude人工智能在训练过程中非法使用了受版权保护的歌词。
但对方律师在5月听证会上直接打脸,指出被引用的文章根本不存在,质疑这些资料是Anthropic自家AI的"幻觉产物"。面对指控,Anthropic辩护律师Ivana Dukanovic在5月15日的回应文件中承认,Claude确实被用于格式化法律引文,虽然人工核查修正了聊天机器人生成的错误卷号和页码,但仍漏掉了标题和作者的表述错误。
"我们提供了正确的出版物名称、年份和原文链接,但最终呈现的引用标题和作者信息存在偏差。"Dukanovic解释称这属于"诚实的技术失误"而非故意造假,同时向法庭致歉。该公司将责任归咎于Claude的"引用格式处理缺陷",称这个错误让所有人脸上无光。
这已是近期第二起AI法律文件造假事件。就在上周,加州法官刚训斥两家律所隐瞒使用AI撰写法律简报,结果文件中出现大量"虚构材料"。去年12月,还有法律专家承认用ChatGPT生成的文件包含幻觉引文。
值得注意的是,此次争议引用的文章真实存在,但Claude在格式化时擅自"添油加醋"——就像学生在论文里错误复制参考文献格式。这种看似低级的技术失误,却可能动摇AI公司对抗版权诉讼的核心证据链。
随着AI在法律领域的应用激增,这类"人工智障"事故正引发行业警惕。当聊天机器人开始参与严肃法律工作,人类律师要面对的不仅是技术故障,更是整个司法系统对AI可信度的质疑。
|
本帖子中包含更多资源
您需要 登录 才可以下载或查看,没有账号?立即注册
x
|