根据独家与Axios分享的美国德国马歇尔基金会(German Marshall Fund Of The United States)的研究,关于俄勒冈州火灾起因的阴谋论仍在通过Facebook的私人群组传播,几天前,这家社交媒体巨头宣布将删除虚假说法。
重要原因:Facebook在其庞大平台上控制错误信息的努力仍然落后于有关生死危机的谣言和阴谋论的传播,研究人员敦促更早、更强有力的行动,特别是在选举临近、冠状病毒继续在这个国家肆虐的情况下。
背景:Facebook和Twitter上的谣言将俄勒冈州的野火归咎于Antifa;和Black Lives Matter组织于9月9日开始流传。8,并扩散了几天,转移了执法人员和资源,尽管消防员正在努力扑灭大火。
波特兰新闻频道KGW8报道,911调度员被反法西斯纵火的电话淹没。
美国联邦调查局(FBI)试图在9月1日(星期五)纠正这些传言。11.Facebook宣布将于9月1日(星期六)删除帖子。12,但已经开始贴上警告标签,并从9月1日开始减少帖子的分发。10.。
从数字上看:德国马歇尔基金会的研究人员在Facebook上追踪了33个重新开放的小组,其中一些小组的成员多达17.1万人,这些小组最初是为了抗议冠状病毒危机而下达的居家命令。德国马歇尔基金会的凯伦·科恩布鲁告诉Axios,这些组织已经成为阴谋论的载体。
Kornbleh说,在Facebook宣布将删除内容之前,33个群中有11个发布了关于反法西斯组织纵火的谣言的帖子。根据德国马歇尔基金会的研究和Axios看到的截图,这些内容仍然存在,而且还在传播。
研究人员估计,自Facebook 9月1日以来,内容的浏览和互动速度并没有放缓。12日公告。
科恩布鲁说,Facebook需要一个熔断机制来应对这类病毒式的时刻。她说,需要有一种方法专注于广泛伤害的风险,而不是迫在眉睫的伤害。
他们的意思是:我们使用技术来删除内容,即使是在私人群组中也是如此,方法是训练我们的系统识别并删除包含违反关键词、图片和视频的帖子。Facebook发言人利兹·布尔乔瓦在推特上写道:这并不能涵盖一切,但我们的团队正在努力改进这项技术。
与此同时,Twitter的一位发言人表示,该服务正在采取行动,降低包含火灾相关错误信息的推文的能见度。