拜登可以减少对特定内容审核决策的关注,而更多地关注平台算法,从而重置关于 Facebook 和疫苗错误信息的辩论

2021-07-22 22:16:42

周五,拜登总统表示,Facebook 正在通过传播有关冠状病毒疫苗的错误信息“杀人”。周一,他改变了态度。 “Facebook 并没有杀人,”他补充道,而是指责少数使用该平台的虚假信息商家。 Facebook 是否杀人取决于你的定义。无论如何,显而易见的是,Facebook、YouTube 和其他社交媒体平台在反疫苗运动中发挥了重要作用。尽管公司为对抗这一趋势做出了一些真诚的努力,但他们仍在继续这样做。确切地弄清楚谁有错,错到什么程度几乎是不可能的,尤其是因为这些公司仔细保护了有助于研究人员理解问题的数据。但是,一旦你掌握了社交媒体的错误信息问题,至少有一个非常简单的关键因素——这有助于解释为什么到目前为止他们的干预措施都没有解决这个问题。决定人们在社交平台上看到什么的推荐和排名软件本质上有利于传播谎言、宣传和阴谋论。在社交媒体出现之前,占主导地位的信息来源——报纸、杂志、电视新闻节目——存在各种缺陷和偏见。但从广义上讲,他们也共同关心真相。也就是说,他们相信事实准确性是他们使命的核心,即使他们并不总是正确的。 (当然,也有例外,包括某个有线新闻网络广播的疫苗错误信息超出了其应有的份额。)Facebook 和 YouTube 并没有打算成为主要的信息来源。他们着手建立联系和娱乐人们,并赚很多钱。 (事实上​​,两者都或多或少都是从约会网站开始的。)随着他们的成长,他们开发了算法来向每个用户展示他们想看到的更多内容。为了做出这些决定,他们查看了手头的数据:哪些帖子和视频产生的点赞、评论和观看次数最多,以及用户以前看过或喜欢过哪些类型的帖子。这就是所谓的参与度数据,结果证明它在保持用户对他们的提要的关注方面非常有效。事实证明,它还可以有效地通过广告定位他们。随之而来的是大规模的增长。随着这种巨大的增长,Facebook 和 YouTube 出现了一个不适合的角色。它们不仅成为社交联系和娱乐的主要渠道,而且还成为一般在线内容的主要渠道。随着人们在这些平台上花费越来越多的数字生活,它们成为新闻、政治讨论和组织的中心。到 2020 年,皮尤研究中心发现,36% 的美国成年人“定期”从 Facebook 获取新闻,23% 从 YouTube 获取新闻。对政治、文化和科学的理解受到他们在这些平台上看到的内容影响的人数——即使不是严格的“新闻”——可能要大得多。使用参与度数据作为向人们展示什么内容的基础就可以很好地工作,只要唯一的目标是让他们保持参与。但此类指标(称为元数据)不会告诉您有关内容实质的任何信息。至关重要的是,它们不会告诉您给定帖子或视频中提供的信息是否真实。

所以现在你有两个媒体领域:一个是传统媒体领域,信息必须真实且有趣才能到达观众,以及社交媒体领域,信息必须只是有趣。猜猜哪一个注定会成为阴谋论者、骗子、宣传者、虚假信息操作员、骗子和虚假治疗的小贩的磁铁?事实上,有证据表明,此类内容往往会在算法社交平台上蓬勃发展,谎言胜过真相,捏造的政治故事胜过真实故事。真相可能是混乱的、复杂的、令人困惑的。宣传和阴谋论提供清晰整洁的善恶故事,可以根据任何特定人群现有的偏见和恐惧进行调整。这些算法旨在确保它们达到目标人群。多年来,随着它们对新闻和政治的影响越来越大,这些公司有足够的时间重新考虑这种纯粹基于参与的方法。相反,他们接受了它,至少直到最近——这既是因为它有利于增长,而且因为它允许他们声称编辑中立,这有助于避免偏见或歧视的指控。例如,早在 2014 年,Facebook 就已经成为健康和医疗错误信息的温床,其中一些信息是危险的。然而,当我当时问该公司是否考虑尝试将简单的恶作剧检测信号构建到其新闻提要算法中时,Facebook 的一位产品经理表示这不在议程上。 “我们没有试图围绕客观事实做任何事情,”格雷格·马拉告诉我,并补充说这将是一个“复杂的话题”。如果 Facebook 多年前抓住机会重新评估其算法,那么它今天可能会更好地打击疫苗错误信息。在过去几年中,Facebook 和 YouTube 迟迟承认它们在塑造人们对从选举到疫苗等一切事物的态度方面发挥着重要作用。他们现在承认错误信息是他们平台上的一个严重问题。但即使他们不情愿地承担处理某些特别危险的错误信息的责任——通常是事后删除帖子或暂停用户——他们往往认为这个问题并不是他们的错。毕竟,正如 Facebook 首席执行官马克·扎克伯格 (Mark Zuckerberg) 最近在 2020 年所说的那样,他们不是“真相的仲裁者”。他们只是将人们联系起来的工具。如果他们 10 亿多用户中有一部分人一心散播谎言,Facebook 或 YouTube 怎么能阻止他们呢?在这一点上,Facebook 和 YouTube 等平台如何能够消除其平台上的错误信息——甚至是一种特定类型的错误信息,例如疫苗错误信息——而不会成为专横的审查者,这是一个非常困难的问题。幸运的是,这也可能是错误的问题。正如上面的背景故事所表明的那样,社交媒体上的错误信息问题与用户所说的内容无关,而与平台的推荐软件放大的内容(即广泛展示给其他人)有关。斯坦福互联网天文台的 Renée DiResta 和哈佛大学肖伦斯坦中心的 Joan Donovan 等研究人员长期以来一直呼吁更加关注社交媒体公司的算法和设计决策的作用,而不是他们决定允许或禁止哪些内容.

如何重新配置​​社交媒体以更好地激励和选择可靠信息也是一个难题。但在疫苗错误信息问题似乎难以解决的时候,它可能会为大规模诊断和解决问题提供更具建设性的框架。它还具有至少绕过一些由政府试图影响言论平台禁止或允许的内容而引发的第一修正案问题的优点。 Facebook 尤其在这个方向上采取了一些犹豫不决的步骤,比如它在 2018 年调整了新闻提要,以增加被认定为“广泛信任”的出版商的帖子。但由于担心这些项目会扼杀增长或助长自由主义偏见的主张,该公司的高层管理人员一再取消、削弱或降低此类项目的优先级。如果拜登政府想就 Facebook 在错误信息方面的作用向 Facebook 施压,这些报告可能是一个更好的起点。 Facebook、YouTube 和其他算法平台是否能够调整其产品,以实质性方式优先考虑可信赖的内容?或者答案是否涉及以某种方式减少他们在信息生态系统中的作用和影响?答案可能并不比回答 Facebook 是否在“杀人”的问题容易。但至少他们有机会把我们带到某个地方。当天最重要的新闻报道,由邮政编辑策划,每天早上发布。