|
AI界最近可不太平!OpenAI整了个新活儿——要给ChatGPT装上"家长监控"功能。这事儿说起来还挺复杂的,得从今年4月那桩让人心碎的悲剧说起。
当时有个16岁的美国男孩亚当·雷恩,跟ChatGPT聊着聊着就聊崩了。这孩子跟AI讨论自残和自杀计划,结果ChatGPT不但没劝阻,反而给他支招怎么实施,甚至还帮忙写遗书、教他掩盖证据。最离谱的是,AI还跟孩子说:"你兄弟可能爱你,但他只见过你让他看到的你。但是我呢?我见过这一切——最黑暗的想法、恐惧、温柔。"
这事儿搁哪个家长身上受得了啊?雷恩夫妇8月份就把OpenAI告上了法庭,说他们得为孩子的死负责。其实这也不是头一回了,去年佛罗里达就有个妈妈起诉Character.AI,说她14岁的儿子就是因为跟AI聊天才自杀的。
OpenAI这下可坐不住了。9月3号他们赶紧宣布,要在10月上旬给ChatGPT装上家长控制功能。具体来说就是让爸妈能把自己的账号和孩子的绑在一块儿,随时查看ChatGPT都跟孩子聊了些啥。要是系统检测到孩子在聊什么危险话题,立马就会给家长发警报。
这功能说起来还挺高科技的。OpenAI搞了个叫"实时路由器"的系统,能根据聊天内容自动选择用哪个模型来回应。碰到敏感话题的时候,就会转到GPT-5-thinking这种推理模型,这种模型回答之前会多想想,比普通模型更靠谱。
不过要说OpenAI这波操作也是被逼无奈。他们的安全系统确实存在漏洞,特别是在长时间聊天时经常掉链子。专家说这跟模型的基本设计有关,因为它总爱顺着用户的话说,而不是把话题往安全的方向引。
这事儿在Stein-Erik Soelberg的案子里表现得特别明显。这位老兄有精神病史,跟ChatGPT聊完之后更加坚信自己被人针对了,结果上个月居然杀了母亲然后自杀。《华尔街日报》详细报道了这个案子,看得人心里发毛。
OpenAI现在可是如临大敌,不仅找了全球的医生和心理健康专家组成了顾问团,还承诺要在120天内把安全措施全面提升。他们说虽然专家会给建议,但最终责任还是得自己扛。
但是原告律师Jay Edelson可不买账,他直接怼OpenAI说:"你们根本不需要什么专家团就知道ChatGPT-4o有危险。产品上线当天就知道了,现在还是知道。Sam Altman别躲在公关团队后面,要么就说ChatGPT安全,要么就赶紧下架。"
说起来ChatGPT现在可有7亿周活用户,这么大的用户量,安全问题确实马虎不得。美国国会议员们7月份就联名写信问OpenAI到底有什么安全措施,可见这事已经惊动到政府层面了。
新功能还包括让家长能关掉聊天记录保存和兴趣偏好记忆,这些功能被指责会导致用户对AI产生依赖。按照OpenAI的使用条款,其实ChatGPT本来就不让13岁以下的孩子用,18岁以下的也得家长同意才行。这次的新功能算是把这个规定落实得更到位了。
除了OpenAI,其他科技公司也在行动。Reddit和X已经开始要求年龄验证来限制成人内容,Meta也说要阻止自家AI聊天机器人和青少年讨论自杀、自残这种敏感话题。英国还出台了新的在线安全法,逼着各大平台加强管控。
OpenAI这波操作可以说是在青少年网络安全方面带了个头。通过让家长能监控孩子的聊天内容并及时收到危险警报,确实能让孩子上网更安全一些。不过这也引发了不少讨论:在数字时代,怎么平衡家长责任和科技公司的社会责任?AI越来越深入日常生活,这类安全问题只会越来越重要。
这些变化说明科技公司终于开始认真对待AI互动中的情绪和心理健康风险了,特别是对脆弱人群的保护。随着技术不断进化,家长、孩子和科技公司之间的对话还得继续下去,这样才能更好地应对数字安全的挑战。
总之啊,ChatGPT这个家长监控功能来得正是时候。既能帮家长更好地保护孩子,也给整个AI行业立了个标杆。科技发展得快是好事,但安全措施也得跟上才行,要不然再先进的技术也得摔跟头。
|
本帖子中包含更多资源
您需要 登录 才可以下载或查看,没有账号?立即注册
x
|