数码之家

 找回密码
 立即注册
搜索
查看: 330|回复: 0

[业界] 道歉机器扎克伯格 危机不断Facebook

[复制链接]
发表于 2019-3-17 20:44:15 | 显示全部楼层 |阅读模式

爱科技、爱创意、爱折腾、爱极致,我们都是技术控

您需要 登录 才可以下载或查看,没有账号?立即注册

x
北京时间3月16日下午消息,去年,一位斯里兰卡用户在Facebook上发布了一则怒气冲冲的帖子,最终导致两人死亡,其后政府介入,命令Facebook在当地关闭3天。
网站关闭引起了Facebook总部的关注。该公司指派了曾经为奥巴马总统服务的律师Jessica Leinwand去查实发生了什么。Leinwand的调查结果是:Facebook需要审视对于不实信息的消极态度。在斯里兰卡事件之前,Facebook已经长期忍受假新闻和不实信息。Leinwand总结说,“对于一家私人公司来说,确定消息真假确实存在困难。”
但当Leinwand开始调查斯里兰卡事件的时候,她意识到必须给忍受假新闻的政策敲敲警钟了。从那个夏天起,Facebook移除了一些高风险国家的用户帖子,包括斯里兰卡,但前提是被当地非营利组织举报并会“立即引发暴力事件”。6月份的时候,Facebook观察到一系列熟悉的传言,新系统似乎起作用了。Leinwand说,她感到很高兴——说明Facebook有能力管理自己的平台。
真是这样吗?从Facebook被曝将成千上万的用户数据分享给剑桥分析公司到现在,已经过去将近一年。这起事件引发了美国司法部的调查,继而还有大陪审团的审问。隐私权的破坏并不像种族暴力那样严重,但这一丑闻确实标志着公众对Facebook巨大影响力态度的明显转变。
此外,隐私事件看起来那样熟悉:Facebook知道这个漏洞,多年来一直忽视它;暴露的时候,试图轻描淡写一笔带过。首席执行官马克·扎克伯格在4月的国会听证会上反复说道:“我们正在更广泛地看待我们的责任。”他在3月初发表了一篇类似的3000字的博文,承诺公司将专注于隐私通信,试图解决Facebook的信任问题,但他同时承认该公司的应用仍然包含 “可怕的内容,如剥削儿童、恐怖主义和敲诈勒索”。
公司的业务依赖于筛选内容并向用户展示他们可能喜欢的帖子,但这往往也会产生放大假新闻和极端主义的副作用。Facebook让Leinwand和其他高管接受《彭博社商业周刊》的采访,为公司辩解,称公司已经取得进展。
不幸的是,他们描述的报告系统反应缓慢且资源不足。这个系统仍旧以收入微薄的人类审查员和软件为主。Facebook本可以向审查员支付更多工资或聘请更多审查员,或对用户可发布的帖子设置更严格的规定——然而这些都会损害公司的利润和营收。与采取上述措施的态度想法,公司习惯于在问题出现后,才试图制定规则。这些规则尽管有所帮助,但批评者认为Facebook应该采取更加积极主动的措施。
“在系统内部已经出现问题后,你才去寻找问题所在并试图解决问题的这一整套思维逻辑本身存在缺陷——这在数学上是不可能的,”Facebook的早期投资者之一罗杰·麦克宁(Roger McNamee)说。麦克宁如今成了Facebook最活跃的批评人物。他认为,由于公司提供个性化广告的能力依赖于收集和处理大量用户数据,公司限制可疑内容的动机十分有限。“他们看待问题的方式,只是为了避免解决商业模式内先天存在的问题,”他说。
如今,Facebook由一份长达27页的文件管理着。这份文件名为《社区标准》(Community Standards),2018年首次公开发布。文件中的规则明确规定,比如,若为出于科学或教育目的,平台上不得发布任何制造爆炸物的教程。同样地,任何“可见肛门”和“臀部完全裸露的镜头”等图像均不得发布,除非这些图像叠加在公众人物身上且允许作为评论发布。
这套标准的明确程度看似十分荒谬。但是,Facebook的高管称,这是为了以可扩展的方式,系统性解决网站中最糟糕问题的努力实践。也就是说,这些规则十分普遍,可应用到世界任何地方——也足够清楚,在Facebook位于菲律宾、爱尔兰等地的内容审查中心的任何一个低薪工人都可以在几秒钟内决定如何处理标记的帖子。Facebook的这1.5万名员工和合同工的工作环境曾引发争议。2月份,科技媒体《Verge》报道称,美国的审查员每年收入仅2.88万美元,还要定期查看包含暴力、色情和仇恨言论的图像与视频等。有些人因此患上了创伤后应激障碍。Facebook回应称,公司正对合同工供应商进行审核,将于他们保持密切联系,以维持更高的标准和薪酬
扎克伯格曾说,公司已经用来识别裸体和恐怖主义内容的人工智能算法,未来将可以处理大部分此类内容的筛选。但目前,即便是最复杂的人工智能软件对内容分类感到困惑。“仇恨言论是其中之一,”Facebook的全球政策管理负责人莫妮卡·比科特(Monika Bickert)去年6月份在公司总部的一次采访中说,“欺凌和骚扰也是。”
在接受采访那天,比科特正在管理Facebook对前一天发生的大规模枪击事件的回应。枪击案发生在马里兰州的安那波利斯。大屠杀发生时,比科特告诉内容审核员检查所有赞扬枪手的帖子,并屏蔽机会主义者以枪手或受害者名义注册的虚假账户。之后,她的团队撤掉了枪手的主页,又将受害者的主页变为公司所谓的“缅怀账户”,页面与普通Facebook主页一样,但死者名字上方多了“悼念”一词。
像这样的危机几乎每周都会发生。“不只是枪击事件,”比科特说,“也可能是飞机失事,我们得找出谁在失事飞机上,以及这是否是一次恐怖袭击。也可能是抗议活动,声称有人受害等等。”
这些还都是比较简单的例子,善与恶之间的界限清晰明确,Facebook也已经为此开发了响应流程。在她的笔记本电脑上,比科特展示了公司《社区标准》团队的会议幻灯片。团队每隔一个周四早上聚集在一起制定新的规则。大约有80名员工,或亲自或虚拟地参加会议。幻灯片显示,去年的一个周四,团队讨论了如何处理#MeToo的帖子。这些帖子由女性发布,点名道姓指控那些骚扰她们的男性。若帖子内容不实,它们就可以被认为是对无辜男性的攻击骚扰。也是在那次会议上,公司评估了年轻用户尝试的病毒式特技。比如“避孕套吸食挑战”,“辣椒挑战”等等,年轻人会尝试或假装尝试这些挑战以博取眼球。若这些挑战可伤及他人,那Facebook是否应该阻止别人宣传这些帖子呢?
12月份,经过数月的讨论后,Facebook增加了新的规则。#MeToo指控没有问题,只要它们不鼓励报复行为。挑战内容也没有问题,只要它们不鼓励自残。“这些问题都不是非黑即白,”比科特说。
在国会和其他地方的听证会上,Facebook已经就针对其内容决策的批评部署了一套回应方式。若对网站上某些已经被社区标准所禁止的内容进行问询,高管会向公众保证,此类内容“不被允许”或“禁止发布”。若还没有对应的规则,Facebook通过会解释说,公司正在试图解决问题,公司没能及时发现问题,公司正在承担自己的责任。对于2016年美国总统大选期间的俄罗斯干预和斯里兰卡的种族暴力事件,公司已经说了不知多少次的“未能及时发现问题”。但是,“未能及时发现问题”也可以被理所当然地解释为故意无视问题直到怨声载道才予以重视的一种委婉表达。
“他们不想对任何事情负责,”技术高管兼活动价艾琳·凯莉(Eileen Carey)说。自2013年以来,她一直在跟踪毒贩在网上发布的药物图片。很多帖子中都包含电话号码或地址,感兴趣的用户可以选择自取或邮件寄送。事实上,这些内容被标记为非法类鸦片药物广告。
在一家咨询公司工作后,凯莉渐渐开始关注这一问题。她的公司帮助Purdue Pharma清理假药。当收到凯莉的提醒后,很多科技公司——包括阿里巴巴、Craiglist和易趣——都会迅速同意撤销这些图片。但是,她说,Facebook和Facebook旗下的Instagram是例外。
凯莉目前也居住在湾区。她经常会与Facebook的高管们参加派对活动,然后提出这些问题大煞风景。也是从2013年开始,凯莉一边关注这个问题,花几分钟时间在Facebook和Instagram上搜索药品销售的帖子并举报。她说,通常她会收到一个不屑一顾的自动回复。有时候,根本没有回复。当时,科技公司都在会议和研究报告中提倡,对匿名黑色网络上的药品销售采取更加严格的执法。但事实上,凯莉渐渐相信,大多数非法购买其实发生在正常的网络上,在社交媒体和其他在线商店上。“生命正在消失,但Facebook并不在意,”她说。

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

APP|手机版|小黑屋|关于我们|联系我们|法律条款|技术知识分享平台

闽公网安备35020502000485号

闽ICP备2021002735号-2

GMT+8, 2025-5-25 08:43 , Processed in 0.140400 second(s), 11 queries , Redis On.

Powered by Discuz!

© 2006-2025 MyDigit.Net

快速回复 返回顶部 返回列表