今天,Facebook理论上再次加大了对仇恨言论的执法力度,这一次是通过一项新政策,禁止在该平台上否认大屠杀。
Facebook高管莫妮卡·比克特(Monika Bickert)在今天的一篇公司博客文章中写道,这一变化是由于全球反犹太主义的抬头,这是有据可查的。
对于Facebook首席执行官马克·扎克伯格来说,这项政策完全是180分。在2018年的一次采访中,扎克伯格特别将否认大屠杀描述为他认为应该允许在该平台上发表的那种极具攻击性的言论。第二天,在激烈的抨击中,他澄清了自己的立场:
我们处理假新闻的目标不是防止任何人说一些不真实的话,而是阻止假新闻和错误信息在我们的服务中传播。如果某件事正在传播,并被事实核查人员评为虚假,它将失去其在News Feed中的绝大多数分发。当然,如果一个帖子越界鼓吹对特定群体的暴力或仇恨,它就会被删除。这些问题非常具有挑战性,但我相信,打击攻击性不良言论的最好方法往往是用好的演讲。
扎克伯格今天在脸书上发帖称,随着近年来反犹暴力事件的增多,他自己的想法也发生了变化。他补充说,在不被接受的言论和不被接受的言论之间划出正确的界限并不直接,但考虑到目前的世界状况,我相信这是正确的平衡。
对否认大屠杀的禁令只是Facebook在过去两周里提出的一系列政策变化和建议中的最新一项,这些政策和建议明确与仇恨言论、错误信息或影响行动有关。
Facebook之前大肆宣扬的减少平台上仇恨言论和错误信息的努力总体上进展不是特别好,多亏了社交媒体,世界仍在应对错误信息传播的速度和范围有多大的影响。今天发布的一项新研究发现,这个问题正在迅速恶化,而不是好转。
无党派智库德国马歇尔基金会的数字项目部门今天发布了一份报告,发现Facebook不仅没有限制虚假声明在其平台上的传播,反而允许虚假信息自2016年以来翻了一番以上。
这项研究对来自转基因食品所称的欺骗网站的互动数量进行了排名,这些网站分为两大类。第一类包括反复发布可证实为虚假的内容的网站,方便地称之为虚假内容生产者。第二类网站规模更大,称为操纵者,从技术上讲,它们通常不会发布完全不真实的故事,而是严重扭曲或歪曲信息以进行论证。(注:第一类网站通常被称为虚假内容制造者),这类网站通常不会发布完全不真实的故事,而是严重歪曲或歪曲信息,以此来进行论证。第二类网站规模更大,称为操纵者(Manipulators),从技术上讲,这些网站通常不会发布完全不真实的故事,而是严重歪曲或歪曲信息,以此来进行论证。
GMF发现,自2016年这个时候以来,Facebook与这两种欺骗网站的参与度增加了242%,其中绝大多数增长发生在去年,自2019年第三季度以来。与完全虚假内容的互动几乎翻了一番,但与操纵者网站的互动却增加了近300%。
这项研究包括了720多个网站,这些网站都属于欺骗性网站,但GMF发现,在他们追踪的所有互动中,仅排名前10位的网站就占到了高达62%,其余711个网站加在一起占到了剩余的38%。所有前10名都有资格成为操纵者网站,包括布莱巴特和每日电讯报。GMF指出,尽管排名靠前的网站都偏向保守,但这项研究也包括左倾和非政治欺骗性网站。
在这项研究的所有网站中,长期受欢迎的福克斯新闻(Fox News)获得了最多的互动,也有资格被贴上操纵者的标签。研究小组发现,福克斯发表了不负责任和误导性的言论,特别是与新冠肺炎有关的言论。与此同时,福克斯在“操纵者”类别中的评级高于其他媒体,因为它遵循新闻惯例,如纠正错误、避免欺骗性新闻标题、标记广告和披露所有权。
欺骗性网站传播的错误信息是转基因食品所称的虚假信息供应链的关键部分,正如我们在2016年了解到的那样,这可能会在现实世界产生重大影响。这类文章旨在触动情感的热键,然后Facebook的算法会将这些内容放大到更多的用户手中,这样的循环就会继续下去。
虚假信息正在以威胁我们民主长期健康的速度感染我们的民主话语,GMF Digital的董事兼该项目负责人卡伦·科恩布鲁(Karen Kornbleh)说。一小撮伪装成新闻媒体的网站正在传播比2016年大选前后更多的虚假和操纵信息。这一数据强调,减少少数最危险网站的内容传播,或者增加传播摩擦,可以极大地减少网上的虚假信息。