Power公司表示,它不得不接受较低的精确度水平,以保护YouTube用户,因为它更依赖于算法调节。
由于新冠肺炎疫情,Youtube在3月份将内容版主送回家时,它大幅扩大了自动过滤器的使用-这导致2020年第二季度被删除的视频数量是第一季度的两倍。这一涨幅源于YouTube决定在没有人类版主的情况下,对潜在的违规视频撒下更大的网,突显出自动监控内容的科学并不完善。这是因为YouTube决定在没有人类版主的情况下,对潜在的违规视频撒下更大的网,突显出自动监控内容的科学并不完善。
考虑到新冠肺炎事件导致人类审查能力大幅下降,我们被迫在潜在的执法不足和潜在的过度执法之间做出选择,该公司在第二季度透明度报告附带的一篇博客文章中写道。因为责任是我们的首要任务,所以我们选择了后者--使用技术来帮助完成一些通常由评审员完成的工作。
YouTube上个季度删除了除两个类别之外的所有类别的更多内容:令人憎恨的视频和鼓励有害或危险活动的视频。但在最敏感的内容类别中,包括暴力极端主义内容和可能危及儿童安全的内容,YouTube删除的视频数量增加了三倍。YouTube解释说,这是因为该公司接受了较低的准确率,以确保我们删除尽可能多的违规内容。
当然,这意味着YouTube删除了大量实际上没有违反其政策的视频,导致上诉数量几乎翻了一番,从上个季度的约16.6万件增至第二季度的32.5万件。上诉后恢复的视频数量也几乎翻了两番,从第一季度的约4.1万个增加到上个季度的16.1万个。
在YouTube发布透明度报告之前,Facebook发布了一份类似的报告,该报告描述了截然不同的结果。与YouTube一样,Facebook也选择在3月份将其内容版主送回家。但与YouTube不同的是,YouTube上个季度删除了几乎每个类别的更多内容,而Facebook和Instagram的内容急剧下降-包括它监管的一些最敏感的类别。
例如,在Instagram上,该公司第二季度删除的儿童性虐待材料约为第一季度的一半,而与自杀相关的内容的删除数量大幅下降了79%。这并不是因为图片较少:根据Facebook的说法,这是因为版主无法在家里查看这些图片,因此无法将其记录到Facebook的自动化系统中,而Facebook正是通过自动化系统来搜索该平台,并删除将来弹出的其他完全匹配的图片。这意味着通常会被删除的大部分内容都留在了网上。
YouTube的一位发言人说,该公司遇到了同样的问题。但它通过删除比其他情况下更多的整体内容来弥补这个问题。YouTube预计这会导致上诉数量激增-事实也的确如此-YouTube维持了一支骨干团队,及时处理上诉,最终恢复了大约一半被删除的视频。
相比之下,Facebook缩减了上诉规模,完全暂停了一些敏感内容类别的上诉,比如暴力和图形内容。这导致几乎所有类别的上诉和删除后恢复的内容数量大幅下降。Facebook负责诚信的副总裁盖伊·罗森(Guy Rosen)本月早些时候在与记者的电话会议上表示:我们不能总是提供[上诉]。我们仍然允许人们选择告诉我们,他们不同意我们对某项内容的决定,我们的团队汇总了这些信号,以发现潜在问题并在适当的地方恢复内容。";
Facebook和YouTube之间的比较并不准确。首先,YouTube不像Facebook那样报告那么多细粒度的信息:例如,尽管Facebook分享了有关其删除的儿童裸体和性剥削内容数量的统计数据,但YouTube分享的儿童安全信息范围更广,这一类别还包括可能对未成年人造成广泛危害的高风险挑战和视频。其次,与YouTube相比,Facebook上季度删除的仇恨言论数量确实出现了更大幅度的跃升。在这方面,YouTube没有像Facebook那样报告更多细粒度的信息:Facebook分享了关于其删除的儿童裸体和性剥削内容数量的统计数据,而YouTube则更广泛地分享了有关儿童安全的信息,这一类别还包括可能广泛危害未成年人的高风险挑战和视频。
然而,这两份报告仍然说明了一个重要的观点,即新冠肺炎时代如何影响了人们在网上看到的和看不到的东西。Facebook和YouTube经常被混为一谈,认为是两个充斥着相同污点的社交网络,两者都使用人工智能和低薪承包商的组合来删除各自平台上的问题帖子。但在过去的六个月里,这两家公司对同一问题采取了两种不同的方法,产生了截然不同的结果。
YouTube冒着让没有做错任何事情的用户保持沉默的风险,而Facebook则以保持准确性的名义冒着没有足够快地让他们保持沉默的风险。这两种方法都不是十全十美的。两者都表明自动化系统还有很长的路要走。