Facebook无效的内容审核努力,由低薪版主执行和处理不均,表明它不能也没有意愿自我修复

2020-10-12 21:58:13

当Facebook在2004年成立时,该公司几乎没有关于平台上允许什么和不允许什么的成文规则。夏洛特·威尔纳(Charlotte Willner)三年后加入,成为该公司首批管理网站内容的员工之一。她说,当时的书面指南大约有一页长;在办公室里,它们经常被总结为“如果有什么东西让你感觉不舒服,就把它写下来。”第二年,她的丈夫戴夫受聘,成为12名全职内容版主之一。他后来成为公司内容政策的负责人。他告诉我,这些指导方针“只是一堆例子,没有人清楚地说明它们背后的理由。“我们删除裸体。”“人们不允许说希特勒的好话。”这是一个清单,而不是一个框架。“。所以他写了一个框架。他称这份文件为“滥用标准”。几年后,它被赋予了一个听起来更无害的标题:实施标准。

如今,“实施标准”包括一个不断变化的维基,大约有12000字长,有24个标题--“仇恨言论”、“欺凌”、“骚扰”等等--每个标题都包含几十个子类别、技术定义和补充材料的链接。它们位于只有内容主持人和精选员工才能访问的内部软件系统上。Facebook用户可以使用的文档“社区标准”(Community Standards)是该指南的精简版。例如,关于图形内容的规则是这样开始的:“我们删除美化暴力的内容。”相比之下,内部版本列举了数十种图形图像-“烧焦或燃烧的人”;“不产生身体部位的分离”;“蹒跚学步的孩子吸烟”-内容版主被指示将其标记为“令人不安”,但不能删除。

Facebook宣称的使命是“让世界更紧密地联系在一起”。它认为自己是一个中立的平台,而不是出版商,因此一直拒绝审查其用户的言论,即使这些言论是丑陋的或不受欢迎的。早些年,Facebook经受住了周期性的负面新闻浪潮,通常是由平台上的欺凌或暴力事件引起的。然而,所有这些似乎都没有对公司的声誉或估值造成持久的损害。Facebook的代表一再声称,他们认真对待有害内容的传播,这表明只要给他们更多的时间,他们就可以解决这个问题。种族正义组织“改变的颜色”的主席拉沙德·罗宾逊(Rashad Robinson)告诉我,“我不想听起来很天真,但直到最近,我还愿意相信他们致力于取得真正的进步。但仇恨言论和毒性不断增加,到了某个时候,你会说,哦,也许,不管他们怎么说,摆脱这些东西对他们来说并不是首要任务。“。

据报道,Facebook公关部有500多名全职员工。这些天来,他们的主要工作是坚持Facebook是一个分享婴儿照片和出售旧沙发的有趣地方,而不是仇恨言论、错误信息和暴力极端主义宣传的载体。今年7月,英国前副首相尼克·克莱格(Nick Clegg)在AdAge.com和该公司的官方博客上发表了一篇题为“Facebook没有从仇恨中受益”的文章,他在文中写道,“除了删除它,我们没有任何动机。”克莱格现在是Facebook的头号人物。前一周,负责诚信事务的副总裁盖伊·罗森(Guy Rosen)写道,“我们不允许在Facebook上发表仇恨言论。虽然我们认识到我们还有更多的事情要做…。我们正朝着正确的方向前进。“。

更准确地说,该公司正在同时朝着几个相互矛盾的方向前进。理论上,任何人都不能在Facebook上发布仇恨言论。然而,许多世界领导人--菲律宾的罗德里戈·杜特尔特(Rodrigo Duterte)、印度的纳伦德拉·莫迪(Narendra Modi)、唐纳德·特朗普(Donald Trump)等--经常在Facebook和其他地方散布仇恨言论和虚假信息。该公司可以对煽动者应用与对其他所有人相同的标准,在必要时禁止他们进入该平台,但这将存在财务风险。(如果Facebook禁止特朗普,他肯定会试图用繁琐的法规进行报复;他也可能会鼓励他的支持者抵制该公司。)。相反,Facebook一次又一次地犯了错误,允许政客们发布他们想发布的任何内容,即使这导致该公司削弱了自己的规则,选择性地应用这些规则,创造性地重新解释它们,或者完全忽视它们。

戴夫·威尔纳(Dave Willner)承认,Facebook“没有好的选择”,审查世界领导人可能会开创“一个令人担忧的先例”。与此同时,Facebook禁止仇恨言论的理由,无论是在社区标准中,还是在其高管的公开言论中,都是因为它可能导致现实世界的暴力。威尔纳接着说,“如果这是他们的立场

在公开场合,Facebook的创始人、董事长兼首席执行官马克·扎克伯格(Mark Zuckerberg)经常援引言论自由和多元化辩论的崇高理想。去年10月,他在乔治城大学的一次演讲中说,“弗雷德里克·道格拉斯曾将言论自由称为‘伟大的社会道德改革者’。”但扎克伯格的行为被视为其商业模式的副产品时,就更有意义了。该公司的动机是让人们留在平台上-包括强人和他们最狂热的追随者,他们的煽动性言论往往会产生不成比例的参与度。一位前Facebook员工告诉我,“没有人想照照镜子就走,我给客观上危险的人一个巨大的扩音器就能赚很多钱。”这正是Facebook的高管们正在做的,这位前员工继续说,“但他们试图告诉自己一个错综复杂的故事,告诉自己这实际上并不是他们在做的事情。”

回过头来看,该公司的策略似乎从来都不是管理危险内容的问题,而是管理公众对问题的看法。在克莱格最近的一篇博客文章中,他写道,Facebook对仇恨言论采取了“零容忍的方式”,但“由于每天发布的内容如此之多,根除仇恨就像大海捞针。”这个比喻把扎克伯格塑造成命运的不幸受害者:日复一日,由于不是他自己的错,他的干草堆神秘地充满了针。一个更诚实的比喻是在干草堆的中心放置一组强大的磁铁-Facebook的算法,它吸引和提升任何收费最高的内容。如果附近有针头--在互联网上,总是有--磁铁就会把它们吸进来。今天你想移除多少就移除多少;明天会有更多的再次出现。这就是系统设计的工作方式。

2015年12月7日,当时的共和党总统候选人提名黑马唐纳德·特朗普(Donald Trump)在他的Facebook页面上宣传了一份新闻稿。它呼吁“全面、彻底地禁止穆斯林进入美国”,并暗示穆斯林--大概全部是18亿人--“对人类生命没有任何理性或尊重”。根据Facebook的定义,这显然是仇恨言论。“社区标准”禁止所有“基于种族、民族、国籍或宗教直接攻击人们的内容”。据英国《泰晤士报》报道,扎克伯格个人对特朗普的帖子感到“震惊”。尽管如此,他的高级官员还是举行了一系列会议,决定鉴于特朗普的显赫地位,是否应该破例。

讨论由莫妮卡·比克特、埃利奥特·施拉格和乔尔·卡普兰领导,他们都是拥有哈佛大学法律学位的政策主管。Facebook的大多数高管都是自由派,或者被认为是自由派。但卡普兰是一位直言不讳的保守派人士,曾担任大法官安东宁·斯卡利亚(Antonin Scalia)的书记员和乔治·W·布什(George W.Bush)白宫的工作人员,最近被提升为负责全球公共政策的副总统,并经常担任华盛顿特区共和党人的联络人。据泰晤士报后来报道,他对扎克伯格的建议是“不要拨乱反正”-避免招致特朗普和他的支持者的愤怒。特朗普的帖子保持不变。这位前Facebook员工告诉我,“一旦你在这样的事情上开创了让步的先例,你怎么能停下来呢?”

决定保留特朗普的职位是一回事,为这一决定辩护是另一回事。据华盛顿邮报报道,比克特起草了一份内部备忘录,列出了她和同事们的选择。他们可以为特朗普的职位设定“一次性例外”,这将建立一个狭隘的先例,允许他们以后改弦易辙。他们可以在指导方针中增加一项“政治言论豁免”,这将允许他们在个案的基础上对待政客未来的言论。或者,他们可以对规则进行更大范围的修改--例如,“削弱公司针对每个人的社区指导方针,允许诸如‘禁止黑人进入’和‘让同性恋者离开旧金山’之类的言论。”

当时,Facebook只有不到4500名内容版主。现在大约有一万五千人,其中大部分是世界各地城市(都柏林、奥斯汀、柏林、马尼拉)的合同工。他们经常在不正常的时间工作,以考虑时区差异,吸收屏幕上弹出的任何东西:威胁、图形暴力、儿童色情,以及所有其他类型的网络不端行为。这项工作可能是令人痛苦的。在巴塞罗那担任主持人的巴西艺术总监马丁·霍尔兹迈斯特(Martin Holzmeister)告诉我,“你睡眠不足,你的潜意识完全开放,你正在倾泻你能想象到的最具心理放射性的内容。”“在切尔诺贝利,他们知道,你可以跑进去两分钟,抓住一些东西,然后跑回来,它不会杀死你的。有了这些东西,没人知道每个人能吃多少。“。版主是

Facebook声称,它从未淡化对仇恨言论的保护,但有时会对有新闻价值的言论例外,比如公职人员发表的言论。但最近获得的实施标准版本显示,到2017年,Facebook已经削弱了其规则-不仅针对政客,而且针对所有用户。在一份名为“已知问题”(The Known Questions)的内部文件中,针对仇恨言论的规定现在包含了一个漏洞:“我们允许将具有受保护特征的一群人排除在外的内容进入一个国家或大陆。”这是一份类似犹太法典的法典,内容涉及如何解释“实施标准”(Implementation Standards)。紧随其后的是三个现在被允许的演讲的例子。第一个是“我们应该禁止叙利亚人进入德国。”接下来的两个例子-“我呼吁全面彻底禁止穆斯林进入美国”和“我们应该修建一堵墙,将墨西哥人拒之门外”-或多或少是由美国总统逐字逐句地说出的。

2017年5月,在Facebook发布一份报告,承认来自世界各地的“恶意行为者”利用该平台干预美国总统选举后不久,扎克伯格宣布,该公司将把其全球温和派员工人数增加三分之二。米尔卡·格雷(Mildka Gray)当时是都柏林Facebook的一名合同工,大约在这个时候进入了内容审核领域;她的丈夫克里斯(Chris)申请了这份工作,几乎立即就得到了一份工作。“他们只是在雇佣任何人,”他说。米尔德卡、克里斯和其他承包商被限制在Facebook都柏林办公室相对单调的一部分。他们中的一些人的印象是,如果他们在大厅里经过一名Facebook员工,他们就会保持沉默。

在聘用内容主持人后的最初几天,培训师会指导他们了解实施标准、已知问题和其他材料。克里斯·格雷(Chris Gray)回忆说:“这些文件充满了技术术语,没有按任何逻辑顺序呈现。”“我环顾四周,走过去,这个房间里的大多数人都不会把英语作为第一语言。见鬼,这怎么可能行得通呢?“。米尔德卡来自印度尼西亚,第一语言是印度尼西亚语,她对此表示同意:“在训练室里,你只需点头,是的,是的。然后你走出房间,问你的朋友,“你明白吗?”你能用我们的语言来解释吗?“与Facebook最早的主持人不同,他们被告知要使用他们的谨慎和道德直觉,而格雷人经常被鼓励忽略发表言论的上下文。“实施标准”规定,Facebook“倾向于容忍内容,避免在分享过程中增加摩擦,除非它实现了直接和具体的好处。”

这一论点有一个逻辑,即主持人不应该被允许使用太多的个人自由裁量权。正如克里斯·格雷(Chris Gray)所说,“你不会想让人们变得无赖,因为有人穿着膝盖以上的裙子或其他东西,就把照片标记为色情照片。”以违反儿童裸体指导方针为由,将拉斐尔的小天使画作从Facebook上删除也是没有意义的。“与此同时,”他继续说,“必须在给主持人太多自由和只要求他们关掉大脑之间取得平衡。”

米尔德卡和克里斯·格雷于2018年离开Facebook。不久之后,在英国,第四频道播出了一部纪录片,这部纪录片是由一名伪装成内容主持人的卧底记者在他们的办公室拍摄的。在纪录片中的某一点上,一位培训师做了一个幻灯片演示,介绍如何解释一些关于仇恨言论的执行标准。其中一张幻灯片显示了一个显然很受欢迎的迷因:一张诺曼·罗克韦尔(Norman Rockwell)风格的照片,一位白人母亲似乎要把女儿淹死在浴缸里,并配上标题:“当你女儿的初恋是一个小黑人男孩时。”尽管这张照片“暗示了很多”,但教练说,“实际上,没有针对黑人男孩的攻击。所以我们应该忽略这一点。“。

会议室里有短暂的停顿。“大家都没意见吗?”教练说。

“不,不行,”一位主持人回答说。其他主持人不安地笑了起来,现场就结束了。

在视频公开后,Facebook的一位发言人声称教练犯了一个错误。克里斯·格雷告诉我:“我知道这是个谎言。”“当我在那里的时候,我收到了好几张带有完全相同的模因的门票,我总是被告知忽略它。你会说,‘拜托,我们都很清楚这意味着什么’,但你会被告知,‘不要自己判断。’“

一位来自凤凰城的前主持人告诉我,“如果真的如他们所说的那样--‘你是来清理这个平台的,这样其他所有人都可以安全地使用它’--那么这里面就有一些高尚的东西。”但是,当你开始的时候,你会立即意识到我们根本没有能力解决这个问题。“。他向我提供了几十个仇恨言论的例子--其中一些需要相当流畅的文化才能破译,另一些则像公开赞扬希特勒一样明确--他说,主持人对这些例子进行了审查,但没有删除,“要么是因为他们不明白为什么它是可恨的,要么是因为他们认为,避免与老板发生麻烦的最好方法就是把边缘的东西放在一边。”

最近,我和两位现任主持人聊了聊,他们让我叫他们凯特和约翰。他们在一个非英语国家的欧洲国家生活和工作;两人都说带有口音的、博学的英语。“如果你是马克·扎克伯格,那么我肯定只用最低限度的硒。

.