对于许多服务来说,适度内容已成为存在危机; 一些服务甚至建立预先验证昂贵的规定的规则

2021-02-21 15:02:24

您可以命名的每个公共通信平台(从Facebook Twitter和YouTube到Parler,Pinterest和Discord)都在解决两个相同的问题:

我们如何确定我们不会助长错误信息,暴力,欺诈或仇恨言论?

他们对内容的控制程度越适中,就会感到认为自己过于节制的人遭受的批评越多。同时,任何关于新一轮温和措施的声明都会引起一些人指出剩余的令人反感的内容。像任何编辑或法律判断问题一样,结果肯定会令某人不满意,包括国会,国会于本周召集Facebook,Google和Twitter的首席执行官于3月25日举行听证会,讨论他们平台上的错误信息。

对于许多服务而言,这已超出了用户体验,增长率甚至广告收入的范围。这已经成为生存危机。尽管进行适度的拨号并不能解决平台的所有问题,但从目前的赢家和输家来看,如果不进行足够的适度干预,便会导致灭绝。

Facebook目前正在就是否继续执行前总统唐纳德·特朗普的禁令进行斗争。皮尤研究中心(Pew Research)表示,有78%的共和党人反对该禁令,这在国会中引起了很多人的看法,即Facebook对保守言论的审查可以证明该公司的分拆是合理的-十年来的隐私丑闻是无法做到的。

1月6日,Parler的一些用户在美国国会大厦直播了骚乱之后,Parler被右翼用户的避风港与主流社交媒体疏远了,而Parler被其云服务提供商Amazon Web Services击倒。帕勒(Parler)显然无法监督煽动暴力的内容。当Parler与新的服务提供商重新联机时,目前尚不清楚它是否具有可服务于广大受众的基础设施。

公司发言人说,在Parler下线的几周内,该公司对几种内容类型(包括威胁和煽动)实施了算法过滤。该公司还具有一个自动过滤器,用于“拖曳”,可以检测到此类内容,但是否打开它取决于用户。此外,“本着《第一修正案》的精神,” Parler实施内容审核政策的准则表示,选择在Parler上进行拖钓的人不会受到Parler的算法的惩罚。帕勒(Parler)最近解雇了其首席执行官,后者表示,他对该服务的愿景(包括应如何调整)感到反感。

现在,几乎所有托管用户生成内容的站点都在认真权衡使用人员,算法和用户的混合更新其内容审核系统的成本和收益。有些甚至在其服务中建立规则,以消除对日益昂贵的审核的需求。

以游戏为中心的消息传递应用Discord的传奇具有启发意义:2018年,针对儿童和年轻人的服务是用来计划夏洛茨维尔暴动的服务之一。一年后,该网站仍在采取似乎故意放任自由的方式来审核内容。

然而,到今年1月,在受到仇恨言论和潜伏儿童掠夺的报道的刺激下,Discord完成了180项工作。它现在拥有一个机器学习工程师团队,负责构建系统以扫描服务的不可接受用途,并分配了15%其全体员工对信任和安全问题。

对内容审核的这种新发现使Discord避免了围绕国会大厦骚乱的争议,并使其在GameStop股票上涨期间短暂禁止了与WallStreetBets相关的聊天组。大约在同一时期,Discord的估值翻了一番,达到70亿美元,这印证了投资者对其缓和策略充满信心。

成功的平台所面临的挑战是在数百万或数十亿条共享内容中“大规模”管理内容。

在采取任何措施之前,服务必须决定应该采取什么措施,这通常是一个缓慢而深思熟虑的过程。

例如,想象一下,草根运动在一个国家中获得了发展势头,并开始在社交媒体上拥护极端和潜在危险的想法。谷歌发言人说,尽管某些语言可能会立即被算法所捕获,但有关是否应完全禁止讨论诸如QAnon之类的特定运动的决定,可能需要花费几个月的时间才能在YouTube之类的服务上进行。

花费这么长时间的原因之一是这些平台的全球性。 Google的政策小组可能会与专家协商,以便在做出决定之前考虑区域敏感性。他补充说,在做出政策决定后,该平台必须训练AI并编写规则供人类主持人实施,然后确保两者都按预期执行了政策。

内容审核初创公司Block Party的创始人,前Pinterest的技术负责人Tracy Chou说,虽然可以训练AI系统捕捉单个问题内容,​​但它们通常对大量文章的广义含义视而不见。

以“停止窃取”抗议为例,该抗议导致对美国国会大厦的致命袭击。周小姐说,用于计划攻击的单个消息,例如“让我们在X地点见面”,对于机器学习系统来说可能看起来是无害的,但“上下文是关键。”骚乱后,Facebook禁止所有提及“停止窃取”的内容。

即使在Facebook已将某种特定类型的内容确定为有害之后,为什么从宪法上讲,它似乎仍无法使其脱离平台?

这是“流行率问题”。在真正巨大的服务上,即使只有很小一部分内容有问题,它仍然可以覆盖数百万人。 Facebook已开始发布有关其社区标准执行情况的季度报告。在2020年最后一个季度,Facebook说用户在每10,000次内容观看中看到7到8条仇恨言论。与上一季度的10件或11件相比有所下降。该公司表示,今年将开始允许对这些索赔进行第三方审核。

尽管Facebook一直特别依赖AI来适度传播内容,尤其是在大流行期间,但它目前拥有约15,000名人类主持人。而且,由于每位新主持人都需要支付固定的额外费用,因此该公司一直在寻求更有效的方式来与其AI和现有人员一起工作。

过去,人类主持人或多或少按时间顺序审查了机器学习算法标记的内容。 Facebook发言人说,内容现在可以根据多种因素进行排序,包括在网站上的传播速度。如果目标是减少人们看到有害内容的次数,那么最具有病毒性的内容应该放在首位。

并非Facebook或Google的公司通常缺乏资源来派遣自己的主持人和机器学习工程师团队。他们必须考虑预算内的费用,其中包括将内容审核的技术部分外包给总部位于旧金山的初创公司Spectrum Labs等公司。

通过其基于云的服务,Spectrum Labs与所有客户(包括Pinterest和《英雄联盟》的制造商Riot Games)共享从任何一位客户那里收集的见解,以过滤从不良言论,人口贩运到仇恨的一切首席执行官贾斯汀·戴维斯(Justin Davis)说。

戴维斯先生说,Spectrum Labs并未说明应禁止或不应该禁止哪些客户。他补充说,除了违法内容之外,每个公司都自行决定它认为可接受的内容。

例如,Pinterest的使命是植根于“灵感”,这有助于它采取明确立场,禁止违反其政策且不符合其使命的有害或令人反感的内容。

服务还试图通过减少不良行为的诱因或机会来减少内容审核的负担。例如,前Pinterest工程师周女士说,例如,Pinterest从一开始就将评论的大小和意义最小化,部分原因是将其使用较小的字体并使其更难找到。她补充说,这使得评论对巨魔和垃圾邮件发送者的吸引力降低。

约会应用Bumble仅允许女性与男性接触。 Spectrum Labs的戴维斯先生说,翻转典型约会应用程序的脚本可以说使Bumble对女性更受欢迎。首席产品官Miles Norris表示,Bumble还具有旨在抢先减少或消除骚扰的其他功能,其中包括“超级阻止”功能,可为被禁用户建立全面的数字档案。这意味着,例如,如果被禁止的用户尝试使用新的电子邮件地址创建一个新帐户,则可以基于其他标识功能来检测和阻止他们。

Facebook首席执行官马克·扎克伯格(Mark Zuckerberg)最近将Facebook形容为报纸和电信公司之间的某种东西。为了使其继续成为全球性的城市广场,它没有奢侈地狭窄地定义将允许的内容和交互的种类。对于最艰难的内容审核决定,它创造了更高的权力-一个财务上独立的“监督委员会”,其中包括退休的美国联邦法官,丹麦前总理和诺贝尔和平奖获得者。

在第一个决定中,董事会推翻了Facebook提出的五项禁令中的四项。

Facebook表示,它打算将其“最高内容法院”做出的决定纳入其如何就该网站允许的内容做出日常决定的一部分。也就是说,即使董事会每年仅做出少数决策,但当以相似方式共享相同内容时,这些裁定也将适用。即使采用了这种机制,也很难想象董事会可以解决内容主持人及其AI助手每天必须做出决定的情况的一小部分。

2月24日星期三下午5点,与《华尔街日报》个人技术编辑威尔逊·罗斯曼(Wilson Rothman)与高级个人技术专栏作家Joanna Stern,技术专栏作家Christopher Mims和技术记者Heather Somerville进行对话。东。在这里问您的问题。

但监督委员会可能会实现将责任归咎于Facebook最重要的适度决策的目标。例如,如果董事会规定恢复前总统特朗普的帐户,Facebook可以通过指出该决定独立于其自身公司政治而转移对该决定的批评。

同时,Parler已备份,但仍被Apple和Google应用商店禁止。如果没有那些通往用户的必不可少的途径-并且没有像以前的提供商Amazon那样可靠的Web服务-Parler似乎不可能以接近原本可能的速度增长。尚不清楚Parler的新内容过滤算法是否可以满足Google和Apple的要求。该公司如何平衡其增强的适度性与既定的“视点中立”服务的使命之间的平衡,将决定它是否已成为Twitter和Facebook的可行替代方案,还是仍是这种适度性的阴影。

—有关更多《华尔街日报》技术分析,评论,建议和头条新闻,请注册我们的每周新闻。

在2021年2月20日的印刷版中显示为“谁能在网上说什么:技术的现存问题”。