|
|
各位经常用iCloud存照片、尤其是有娃的果粉们,接下来这事儿您可得留神听了,因为它不光关系到苹果公司的政策,更戳到了一个让人极度不适又无法回避的社会阴暗面。就在今天,美国西弗吉尼亚州的总检察长JB McCuskey,正式把苹果公司给告了,告状的罪名相当严重——指控苹果明明知道有人利用它的iCloud网盘来分发和存储儿童性虐待材料(简称CSAM),但多年来却选择“对此无所作为”。
这话可不是随便说说的。根据MacRumors报道的这起诉讼,总检察长McCuskey的原话讲得特别重,他说:“保护儿童性犯罪者的隐私,是绝对不可原谅的。更重要的是,这违反了西弗吉尼亚州的法律。既然苹果到目前为止都拒绝自我监管、拒绝做道德上正确的事,那我就要提起这场诉讼,要求苹果遵守法律,举报这些图片,并且停止允许这些图片被存储和分享,从而造成对儿童的二次伤害。”
你听听,这指控的力度,直接上升到了“纵容犯罪”和“道德失职”的层面。诉讼文件里还爆出一个更扎眼的说法,指控苹果内部曾把自己形容为“传播儿童色情内容的最佳平台”。与此同时,苹果在举报CSAM材料的数量上,却远远落后于谷歌、Meta(就是原来的脸书)这类同行。
哎,说到这儿,可能有些朋友会问,苹果难道就没管过这事儿吗?它管过,或者说,它试图管过,但后来缩回去了。这事儿啊,还得从几年前一场闹得满城风雨的争议说起。
时间回到2021年,苹果当时高调宣布了一套儿童安全功能。其中最核心、也最具争议的一条,就是要搞一个系统,专门扫描用户存储在iCloud照片里的图片,来识别已知的CSAM材料。苹果当时的想法可能是,我在云端帮你把关,把这种罪恶的东西扼杀在摇篮里。
但这个计划一出来,直接就炸锅了。反对的声音来自四面八方:普通用户担心隐私不保,数字权利组织抨击这是“监控后门”,连一些儿童安全倡导者和网络安全研究员都觉得这法子有问题,可能被滥用。总之,压力山大。结果到了2022年,苹果顶不住了,正式宣布放弃在iCloud照片里部署这个CSAM检测功能的计划。
苹果当时是这么说的:“保护儿童无需公司审查个人数据,我们将继续与政府、儿童权益倡导者以及其他公司合作,帮助保护年轻人,维护他们的隐私权,让互联网成为对儿童和我们所有人都更安全的地方。” 后来苹果还进一步解释,说专门为扫描iCloud私人数据打造一个工具,会“为数据窃贼创造新的攻击载体去寻找和利用”。
听起来,苹果是出于保护用户隐私和网络安全的大局考虑,才忍痛割舍了这个功能,对吧?但在西弗吉尼亚州总检察长这边看来,这完全是两码事。他的控诉逻辑是:苹果你这是以“用户隐私”为幌子,推卸保护儿童的责任。你选择不部署检测技术,这是一个主动的选择,而不是被动的疏忽。
起诉书里说得更直白:因为苹果对硬件、软件和云端基础设施拥有端到端的绝对控制权,所以它根本没法声称自己只是“一个不知情的、被动的CSAM传播渠道”。意思就是,你家院子从大门到房间钥匙全是你管的,你说你不知道院子里有人在干非法勾当,这谁信啊?
所以,西弗吉尼亚州这次诉讼,目的很明确:一是要求法院判给惩罚性赔偿;二是要寻求一项强制令,逼着苹果必须采取有效的CSAM检测措施。说白了,就是法院命令你必须把这事儿管起来。
而且,这已经不是苹果第一次因为放弃CSAM扫描而吃官司了。早在2024年,就有另一起集体诉讼代表了多达2680名潜在受害者,指控苹果不部署监控工具的做法,持续对受害者造成了伤害。那场官司,索赔金额高达12亿美元。
所以你看,一边是苹果高举“隐私权”大旗,认为扫描用户云端数据是危险的越界行为;另一边是检察官和受害者群体高举“保护儿童”大旗,认为拥有巨大技术能力和控制力的科技巨头,必须在阻止恶性犯罪上承担起无可推卸的责任。这两面大旗撞在一起,就成了一个极其复杂、充满伦理困境的科技法律漩涡。西弗吉尼亚州这场官司最后怎么判,很可能为科技公司到底该在“隐私”和“安全”之间划下多宽的责任红线,提供一个重要的判例。咱们这些用户,说到底,既是隐私的拥有者,也是希望社会更安全的一员,这其中的分寸,确实难啊。
|
本帖子中包含更多资源
您需要 登录 才可以下载或查看,没有账号?立即注册
x
|