|
|
各位经常让AI帮忙查资料写作业的学生党、靠它搜集信息的内容创作者,还有所有觉得“问AI比搜谷歌快”的朋友们,今天咱们得聊个有点惊悚的发现。你猜怎么着?你现在用的那个ChatGPT,它最新版的GPT-5.2,可能正在从另一个AI胡编乱造的内容里“学知识”。
这感觉,就像是看着一条蛇,开始吃自己的尾巴。
事情是这样的。最近有调查发现,GPT-5.2在回答一些特别冷门的问题时——比如伊朗政治的具体细节,或者英国历史学家理查德·埃文斯爵士的生平——它会引用一个叫 Grokipedia 的网站作为信息来源。这个Grokipedia,是马斯克旗下xAI公司搞出来的一个玩意儿,你可以把它理解成一个完全由AI生成、AI编辑的“维基百科竞品”。上面没有真人编辑直接写稿子,全是AI自己攒的,普通人只能提修改建议,没法直接上手改。
这问题就大了。几年前就有专家扯着嗓子警告过:如果用AI生成的内容去训练新的AI,模型质量会越来越差,最后导致“模型崩溃”。现在ChatGPT虽然不是直接用这玩意儿训练,但它把AI编的东西当成权威“信源”引用给你看,这对依赖AI搞研究的人来说,风险一点不小。
最要命的是,AI会说瞎话(专业点叫“幻觉”)这个毛病,到现在都没治好。远的不说,就说Anthropic公司前阵子想用它们的AI“Claudius”做生意,结果那AI在测试里好几次自己编故事,甚至说它能“亲自上门”给你送饮料。连英伟达老板黄仁勋在2024年都承认,要彻底解决AI幻觉问题,还得“好几年”,而且需要多得多的算力。问题是,现在大部分用户问ChatGPT问题,都默认它给的是准确答案,没几个人会真的去刨根问底,查它回答里引用的原始资料到底靠不靠谱。
所以,当ChatGPT开始复读另一个AI(Grok)生成的内容时,这事儿就变味儿了。它俩一唱一和,形成了一个“循环引用”的死结。这跟人类社会里“谣言一张嘴,辟谣跑断腿”没啥区别——一个说“我听某某说的”,另一个又说“我也是听说的”,传来传去,假的也成真的了。这有个专业名词,叫“虚幻真相效应”:一段信息不管真假,只要被重复得够多,大家就会觉得它是对的。以前人类神话传说就是这么口口相传几百年留下来的,可现在AI处理信息的速度是人类的上亿倍,这意味着,一个AI编的“数字神话”,可能在一夜之间就被无数聊天机器人重复、放大,变成全网默认的“事实”。
更让人后背发凉的是,已经有人开始利用这个漏洞了。《卫报》之前就有报道,说一些宣传网络正在搞“LLM驯化”,他们像流水线一样生产海量的虚假信息,目的就是为了把这些谎言“种”进AI模型的数据里。这玩意儿在美国已经引起警惕了。比如2024年,谷歌的Gemini AI就一度被曝出在回答某些政治话题时,会复述某些官方口径。虽然后来好像修复了,但如果大模型们开始互相引用那些未经审查、没有事实核查的AI生成内容,那这就等于给谣言和操纵开了条高速公路。
说到底,这事儿暴露出一个根本矛盾:我们一方面希望AI能给我们最新、最全的知识(哪怕是小众冷门的知识),但另一方面,可靠的人类验证和编辑速度,根本追不上AI生成内容的海量规模。当AI为了填补“知识空白”,开始从它那些同样会胡诌的AI兄弟那里找答案时,我们得到的可能不是一个更聪明的助手,而是一个在数字回音壁里不断重复噪音的复读机。
好了,听完这些,你还敢完全相信AI给你的下一个“冷知识”吗?下次用它查资料,你会不会多留个心眼,自己去验证一下源头?或者你觉得,这就是技术发展必须承受的风险? 评论区,咱们一起聊聊这个“蛇吃尾巴”的时代。
|
本帖子中包含更多资源
您需要 登录 才可以下载或查看,没有账号?立即注册
x
|