Facebook在缅甸大选之前首次创建了针对特定国家的社区标准,似乎减少了仇恨言论和错误信息

2020-11-21 12:41:50

阿辛·维拉图(Ashin Wirathu)戴着塑料面罩和他的橙色僧袍,在奔跑了一年多之后,于11月2日走进仰光派出所。直到去年6月躲藏起来之前,与缅甸军队(Tatmadaw)有联系的民族主义传教士维拉图(Wirathu)是缅甸最著名的伊斯兰信徒之一,他在网上散布偏执和虚假信息。在2019年5月,他被指控犯有煽动罪,但他从未出庭。

维特拉胡的投降是在竞选运动的最后阶段进行的。在竞选活动的最后阶段,仇恨言论激增和民族主义情绪推动了针对该国穆斯林罗兴亚少数民族的种族清洗运动,这再次暴露了缅甸的种族和宗教紧张局势。

这位和尚的举动是一个剧院,旨在让他和他的反穆斯林意识形态重新回到公众的视线中,并传播到网上流传的谣言和错误信息中。活动家为在社交媒体上的仇恨言论激增做好了准备。它从来没有来过。主流媒体报道了他被捕的重音,但在网上,他的支持者却被默默地沉默了。共享他的观点的Facebook页面被民间社会团体标记,并很快被该平台关闭。

“他没有得到他希望得到的扩音器,”位于仰光的研究员兼缅甸技术问责网(Myanmar Tech Accountability Network)顾问Victoire Rio说道。缅甸技术问责网是一个致力于散布虚假信息和仇恨言论的非营利组织。 “整个事情都得到了很好的控制,这在很大程度上是因为Facebook能够采取行动。”

Facebook因其在缅甸的失败而面临多年的批评。 2018年,联合国指控该平台允许煽动种族灭绝的仇恨言论激增。美国和缅甸的活动家一直在向公司施压,要求他们为2020年的选举做准备,以防止进一步的暴力行为。

作为回应,Facebook在11月8日的投票前夕开始尝试一种新的,更积极的方法来处理仇恨言论和政治虚假信息。这涉及限制用户在没有上下文的情况下转发旧照片的能力-一种常见的错误信息策略-与当地合作伙伴合作,以验证政党的页面和事实核查故事。

最重要的是,Facebook用于监控其平台上内容的“社区标准”得到了扩展。通常,公司不会删除错误信息,除非它会造成迫在眉睫的伤害威胁,但是在缅甸,几个月来,该政策已扩大到包括任何可能“压抑投票或损害选举程序完整性”的内容。 ,毫无根据的谣言说,该国事实上的领导人昂山素季(Aung San Suu Kyi)死于大选前散发的Covid-19。通常,公司的社区标准将“仇恨言论”狭义地定义为对人的攻击,而不是对概念的攻击,即对穆斯林的攻击,而非对伊斯兰教的攻击。进行了更改,以防止用户针对宗教本身或攻击“侵略者”或“非法者”,这是指罗兴亚人的贬义词。

力拓说:“这是一笔大买卖。” “很多有问题的内容并没有像Facebook所希望的那样,像仇恨言论那样仇恨言论或暴力呼吁的框架-武器,受害者,地点,整件事。”

缅甸在网上的仇恨言论和恶意虚假信息有一个有据可查的问题,这种攻击经常攻击该国的穆斯林。民族主义者和极端保守的佛教徒已经成功地将穆斯林描绘成对该国文化和多数宗教的威胁以及外国人的闯入者。这种敌对情绪如此广泛,以至于在2020年大选中,主流政党争相将对手描绘成对伊斯兰教的同情。

来自军事支持的联盟团结与发展党候选人的一个广泛认同的主张是,Suu Kyi的全国民主联盟(NLD)有42名穆斯林候选人。真实数字是两个。在社交媒体上流传的一张图片显示,在一次全国民主联盟会议上,佛教僧侣似乎坐在地板上,而穆斯林与会者坐在椅子上,这些演讲毫无语境地呈现,似乎是一种蓄意的侮辱。通常,这种虚假陈述不会违反Facebook的社区标准。

在10月和11月,试图利用宗教差异扭曲选举结果的虚假信息被Facebook取缔,伪造的“泄露文件”也被伪造的“泄密文件”拒之门外,这些阴谋理论将Suu Kyi与金融家和人权激进主义者George Soros联系在一起,并且没有依据。反对者认为投票是操纵的。

Facebook的几个“可信赖的合作伙伴”,即该公司为报告违反社区标准的行为提供了一条明确的通道的民间社会组织,对世界其他地区说,在十月和十一月,当他们报告虚假和仇恨言论时,他们的投诉很快就升级了。并删除了标记的内容。以前,他们发现他们的干预没有多大作用。

“值得赞扬的是,[Facebook]为这次选举投入了比过去几年更多的努力,更多的资源,”社交技术Phandeeyar首席执行官Jes Kaliebe Petersen说仰光加速器。 “这是非常积极的。他们在地上穿了靴子;他们有来自新加坡团队的人致力于此。他们参与了民间社会。”

十月,Facebook删除了数十个“协调不真实行为”的帐户,该帐户用于散布虚假信息,并拆除了假冒用户和点击诱饵页面的网络,这些网络推动了政治错误信息的传播。 (尚无关于11月份Facebook撤军的数据。)活动家告诉世界其他地区,与5年前的大选相比,这种方法导致了虚假信息和仇恨言论的大幅减少。

“我不是说2020年没有仇恨言论,但我认为这要比2015年少得多,”宗教间活动家Harry Myo Lin说。 “他们对报告和仇恨内容有更积极的反应。这并不完美,但我认为他们的表现比以前更好。”

Facebook镇压仇恨言论的副作用是,一些演员迁移到其他平台,包括俄罗斯社交网络VK和YouTube,从而暴露了后者在处理恶意内容方面的缺陷。 “现在,YouTube是最有问题的一种,”位于仰光的事实检查网站Think Think You You Trust的创始人Myat Thu说。

随着投票结束(现任全国民主联盟获得决定性胜利),Facebook将于12月6日恢复其大选前政策,令活动人士担心该平台将恢复为仇恨和虚假信息继续流传的地方。

“最大的问题是:接下来会发生什么?”彼得森说。 “这是Facebook不断提供新的一贯支持和关注的标志,还是就像他们加入了特警队一样,现在……特警队将再次离开,我们回到了原来的状态。之前。”

Facebook在一份声明中说,它认为该实验是成功的,并有可能在将来使其适应其他国家。

力拓在缅甸技术责任网络上表示,尽管Facebook的实验方法仍然存在严重缺陷,但它表明该公司确实拥有应对全球平台上泛滥的腐蚀性错误信息和偏执的工具。

“我们需要在适当的时候给予他们信用。他们做得不错。”里约说。 “但是,如果有的话,这表明他们愿意时,他们可以做到。”

我们每周的时事通讯使您可以首先访问我们的最新新闻,趋势发现以及来自世界各地的技术分析。立即注册。