在周三的参议院听证会上,参议员埃德·马基(Ed Markey)向Facebook首席执行官马克·扎克伯格(Mark Zuckerberg)询问了有关他的公司很早就知道其集团推荐会将人们推向更极端内容的报道。扎克伯格回应说,该公司实际上已经对某些群体禁用了这一功能-Facebook之前没有宣布这一事实。
扎克伯格告诉马基:“参议员,我们已经采取措施,停止对所有政治内容或社会问题团体进行分组推荐,以此作为预防措施。”
TechCrunch联系了Facebook,询问什么样的群体会受到影响,以及建议将暂停多长时间,但没有立即得到回应。Facebook上周五首次向BuzzFeed新闻证实了这一变化。
Facebook发言人利兹·布尔乔瓦在一封电子邮件中告诉TechCrunch:“这是我们在选举日之前采取的一项措施。”“我们将在事后评估何时解除,但这些都是暂时性的.”
警告步骤将禁用对政治和社会问题组以及在这段时间窗口内创建的任何新组的建议。Facebook拒绝提供更多细节,说明哪些群体将受到这一变化的影响,哪些群体不会受到影响,或者这一决定涉及哪些内容。
专注于极端主义的研究人员长期以来一直担心社交网络上的算法推荐会将人们推向更极端的内容。Facebook至少在2016年就意识到了这一现象,当时一份关于德国极端主义的内部演示观察到,“所有极端主义团体加入的64%都是由于我们的推荐工具。”
在Facebook的案例中,推荐可以将持有极端观点和暴力想法的用户引导到社会团体中,在那里他们可以组织和放大危险的意识形态。在被社交网络禁止之前,暴力的极右翼组织骄傲的男孩依靠Facebook小组进行相对复杂的全国招募活动。根据FBI的一份宣誓书,密谋绑架密歇根州州长格雷琴·惠特默(Gretchen Whitmer)的组织成员也利用Facebook群组进行组织。
虽然Facebook关闭一些群组推荐的决定听起来是暂时的,但近几个月来,该公司做出了前所未有的一系列选择,以限制危险内容,可能是因为担心2020年的选举会再次让它陷入政治争议。仅在过去三个月里,Facebook就对Qanon、民兵组织以及特朗普竞选团队使用的可能导致选民恐吓的语言进行了打击-考虑到Facebook长期不采取行动,以及对可能被视为党派之争的决定的深切恐惧,这些都是令人惊讶的姿态。
在多年的相对不作为之后,该公司现在似乎正在认真对待它长期孵化的一些极端主义,尽管未来几天可能会考验其新的一套保护政策。