旧金山—在总统大选后的紧张日子里,Facebook员工团队向首席执行官马克·扎克伯格(Mark Zuckerberg)提出了一个令人震惊的发现:与选举有关的错误信息在该网站上日益流行。
特朗普总统已经将选举当做操纵,来自右翼媒体的报道在平台上最受欢迎的新闻报导包括虚假和误导性的关于弃用选票,票数错误和统计不正确的报道。
作为回应,这些员工提议对该网站的新闻提要算法进行紧急更改,该算法可帮助确定每天有超过20亿人看到的内容。它涉及强调Facebook所谓的“新闻生态系统质量”得分或N.E.Q.的重要性,N.E.Q。是基于有关其新闻质量的信号而分配给新闻发布者的秘密内部排名。
通常,N.E.Q。分数在确定用户供稿上显示的内容中起次要作用。但是选举后几天,扎克伯格同意增加Facebook算法赋予N.E.Q.的权重。知情决定的三人表示,他们的分数确保了权威新闻的出现更为显眼,他们无权讨论内部讨论。
这次改变是Facebook为有争议的选举而花了数月时间制定的“破玻璃”计划的一部分。这些员工说,这导致CNN,《纽约时报》和NPR等大型主流发行商的知名度激增,而高度参与的超党派页面(如Breitbart和Occupy Democrats)的帖子变得不那么可见。
它构想出一个更加平静,不那么分裂的Facebook外观。一些员工认为,这种改变应该成为永久性的,即使目前尚不清楚这将如何影响人们在Facebook上花费的时间。两名参加会议的人士说,在选举后一周举行的一次员工会议上,工人们问是否可以保留“更精密的新闻”。
负责清理平台完整性工作的Facebook高管盖伊·罗森(Guy Rosen)上周在与记者的电话中说,这些更改永远都是暂时的。他说:“从来没有计划使这些永久化。”负责监督新闻提要的约翰·黑格曼(John Hegeman)在一次采访中表示,尽管Facebook可能回滚这些实验,但它将进行研究并向他们学习。
有关新闻提要的辩论表明,如今Facebook内部的一些人士正感到强烈的紧张气氛:该公司改善世界的愿望常常与对主导地位的渴望背道而驰。
在过去的几个月中,由于Facebook在扩大虚假和分裂性信息方面的作用受到了越来越多的审查,其员工对公司的未来产生了冲突。一方面是理想主义者,包括许多普通工人和一些高管,他们想做更多以限制错误信息和两极化的内容。另一方面是实用主义者,他们担心这些措施可能损害Facebook的增长,或在政治上引起强烈反响,导致监管不佳。
“实际上,我们做出的每个产品决策都存在紧张关系,我们已经开发了一个名为“更好的决策”的公司范围的框架,以确保我们能够准确地做出决策,并且我们的目标直接与为人们提供最佳体验有关。” Facebook发言人乔·奥斯本(Joe Osborne)。
这些战斗给士气造成了损失。在本月的员工调查中,Facebook员工报告称,与往年相比,对公司的自豪感有所下降。根据《纽约时报》(New York Times)的一份调查报告,即所谓的Pulse,约有一半的人认为Facebook对世界产生了积极影响,而今年早些时候大约只有四分之三。员工的“留下意愿”也下降了,对领导的信心也下降了。
即使在选举日及其后果很少发生的情况下,一些幻灭的员工也辞职了,称他们不能再忍受为一家产品被视为有害的公司工作。其他人则留下来,认为他们可以在内部发挥更大的作用。还有一些人做出了道德上的判断,即尽管存在缺陷,但总的来说,Facebook的好处多于伤害。
Instagram的前工程师Gregor Hochmuth说:“ Facebook的薪水目前是科技行业中最高的,当您每两周拿一大笔薪水回家时,您必须告诉自己,这是有充分理由的。”由Facebook拥有,于2014年离开。“否则,您的工作确实与破坏地球并为员工付出高昂代价以帮助他们忘却的其他行业没什么不同。”
在大流行期间,由于大多数员工都在远程工作,因此,大部分的灵魂搜索都发生在Facebook的内部Workplace网络上。
今年5月,在“黑死病”抗议活动的激烈讨论中,扎克伯格拒绝删除特朗普总统的一则帖子,称“当抢劫开始时,枪击案就开始了。”他激怒了许多员工。立法者和民权组织表示,该哨所威胁要对抗议者施暴,并呼吁将其拆除。但扎克伯格表示,该帖子并未违反Facebook的规定。
为了表达他们的不满,几名员工组成了一个名为“采取行动”的新工作场所小组。小组中的成员膨胀到1500多个成员,他们将个人资料照片明确地更改为举起的“黑色生活问题”拳头的图像。
该组织成为内部持不同政见者和对Facebook的弱点暗含幽默的家。在几次场合,员工通过发布英国喜剧素描中的一个模因来回应有关该公司的负面新闻报道,其中两名纳粹分子具有道德上的顿悟,并问自己:“我们是坏人吗?”
6月,员工举行了虚拟罢工,以抗议扎克伯格对特朗普职位的决定。
9月,Facebook更新了其员工政策,以阻止员工在公开的Workplace论坛中进行有争议的政治辩论,称他们应将对话限制在专门指定的场所。它还要求员工使用他们的真实面孔或名字的第一个名字作为自己的个人资料照片,这一更改被某些工人解释为镇压。
几名员工表示,他们对于解决诸如错误信息之类的棘手问题感到沮丧,他们常常不得不证明他们提出的解决方案不会激怒强大的游击队或牺牲Facebook的成长。
当本月Facebook工程师和数据科学家发布了一系列名为“ P(Bad for the World)”的实验结果时,这些折衷就成为焦点。
该公司对用户进行了调查,调查他们看到的某些帖子是“对世界有利”还是“对世界不利”。他们发现,高影响力的帖子(许多用户看到的帖子)更有可能被视为“对世界有害”,这一发现有些员工表示震惊。
因此,团队训练了一种机器学习算法来预测用户认为“对世界有害”的帖子,并将其降级为新闻提要。在早期测试中,新算法成功降低了不良内容的可见性。但是,这也降低了用户打开Facebook的次数,Facebook是一种内部指标,被高管人员密切监视。
结果摘要显示:“结果不错,只是它导致会话减少,这促使我们尝试其他方法。”该结果摘要已发布至Facebook的内部网络,并由《泰晤士报》进行了评论。
然后,该团队进行了第二项实验,调整了算法,以便将较大的“对世界不利”的内容降级的幅度较小。尽管这在用户的供稿中留下了更多令人反感的帖子,但并没有减少他们的会话或花费的时间。
该更改最终获得批准。但是员工在选举之前开发的其他功能从来没有。
一个叫做“更正记录”的记录会追溯性地通知用户他们共享了虚假新闻,并指示他们进行独立的事实检查。 Facebook员工提议扩展该产品,该产品目前可用于通知共享Covid-19错误信息的人,以适用于其他类型的错误信息。
两位知情人士说,但这被政策执行者否决了,他们担心这样做会过多地向共享右翼网站虚假消息的人显示通知。
另一种产品是一种用于对“仇恨诱饵”进行分类和降级的算法,该算法不严格违反Facebook的仇恨言论规则,但会引起大量仇恨评论,仅限于仅在小组而非页面上使用,两位知情人士说,政策小组认为,如果将其更广泛地应用,它将首先影响到右翼出版商。
Facebook诚信主管罗森(Rosen)先生在一次采访中对这些特征提出了异议,但前提是不得直接引用他。
他说,“更正记录”工具的效果不如希望的那样,该公司已决定将重点放在抑制错误信息的其他方式上。他还说,在Facebook页面上使用“仇恨诱饵”检测器可能会不公平地惩罚发布者的追随者留下的可恶评论,或者使不良行为者通过向其发送带有恶意评论的内容来伤害其访问范围。他说,这两个项目都没有因为政治担忧或因为减少了Facebook使用而被搁置。
Facebook发言人奥斯本说:“没有任何一项新闻提要产品变更是因为它会影响所花费的时间。”他补充说,与《纽约时报》交谈的人没有决策权。
特朗普政府结束后,Facebook在某种程度上清理平台的举动将变得更加容易。多年来,特朗普先生和其他领先的保守派人士每次采取措施限制错误信息时,都指责该公司采取反保守主义的偏见。
但是,即使拜登政府即将上任,Facebook仍需要在员工的社会责任感与业务目标之间取得平衡。
民权组织民权与人权领袖会议首席执行官范尼塔·古普塔(Vanita Gupta)表示:“问题是,他们从这次大选中学到了什么,这些知识应该在未来为他们的政策提供参考?”我担心,他们会尽管所有推动这些变化的条件仍然存在,但我们还是将所有这些变化恢复原状。”
两名参加会议的人士说,在上周举行的虚拟员工会议上,高管们描述了他们认为Facebook的选举成功。尽管该网站上仍然充斥着虚假宣称选举被操纵的帖子,但Facebook首席产品官克里斯·考克斯(Chris Cox)表示,他为该公司如何将标签应用于与选举有关的虚假信息而感到自豪,这为用户指出了有关选举结果的权威信息。人们说。
然后,视频流切入到预先制作的视频中,这是感恩节鼓舞士气的视频,游行队伍中的员工谈论他们今年的感恩之情。