马克·萨金特(Mark Sargent)立即看到他的处境变得越来越糟。萨金特(Sargent)是一位活泼的,白发的52岁老人,是一位平地传播者,他生活在华盛顿州的惠德比岛(Whidbey Island)上,并驾驶名叫“ ITSFLAT”的克莱斯勒驾驶克莱斯勒。但是他在全球闻名,至少在那些不相信自己赖以生存的人当中。这要归功于YouTube,这不仅是他平凡的想法以及后来的国际知名度的补充。
萨金特曾是一名技术支持人员和富有竞争力的虚拟弹球玩家,长期以来一直对阴谋论感兴趣,从不明飞行物到大脚怪,再到猫王的永生不朽。他相信某些人(大脚怪),并对其他人表示怀疑(“猫王还活着吗?可能还没有。他死于马桶,身上装有大量毒品”)。然后,在2014年,他偶然在YouTube上观看了他的第一部平面视频。
他无法停止思考。从2015年2月起,他开始上传自己的音乐作品,系列名为“平地线索”。正如他在庞大的1600多个视频集中所重申的那样,我们的星球不是漂浮在太空中的球;而是这是一个类似Truman Show的扁平玻璃容器坚持认为否则的科学家是错误的,NASA完全是在撒谎,政府不敢与您保持一致,因为那样的话,它不得不承认更高的力量(外星人?上帝?萨金特不确定这部分)建立了我们的玻璃容器世界。
萨金特(Sargent)的视频故意是低保真事件。通常会有一张幻灯片放映,其中可能包含哥白尼的照片(伪装的),太空中的宇航员的照片(伪造的)或南极洲的照片(由政府集团禁止进入以掩盖地球的边缘),这些图像在他发冷的讲话时会出现在屏幕上,语音旁白。
萨金特(Sargent)的YouTube顶级视频获得了近120万的观看次数,他已经吸引了89,200位追随者-几乎不符合现代有影响力的人的史诗标准,但足以靠预卷广告,付费演讲和会议演出谋生。
他说,对他的成功至关重要的是YouTube的推荐系统,该功能可以在首页或您正在观看的任何内容右侧的“上一个下一个”栏中为您提供观看视频的宣传功能。 “我们经常被推荐,”他告诉我。他说,YouTube的算法得出的结论是:“进入平地的人显然是从这个兔子洞里掉下来的,所以我们会继续推荐。”
研究阴谋论的学者正在意识到同样的事情。 YouTube是一种门户药物。一位采访过平地大会参与者的学者发现,几乎对一个人来说,他们是通过YouTube建议发现了亚文化的。尽管人们可能会以微不足道的奇怪而耸耸肩-他们认为地球是平坦的,但谁在乎呢?享受疯狂的人们-学术文献发现,阴谋思维常常使思想殖民化。从平坦的地球开始,您可能很快会相信Sandy Hook是虚假的举动,或者疫苗会导致自闭症,或者Q关于民主党恋童癖者的警告是一件严重的事情。一旦您使自己相信关于太阳系的有据可查的事实是欺诈,为什么要相信关于任何事物的有据可查的事实?也许最值得信赖的人是局外人,那些敢于挑战公约的人,而且如萨金特所理解的那样,如果不使用YouTube的算法来放大它们,他们的能力将大大降低。
四年来,萨金特(Sargent)的平地视频源源不断地来自YouTube的算法。然后,在2019年1月,新观众的数量突然放缓到trick流。很少有人推荐他的视频。当他在网上与平地同伴聊天时,他们都说了同样的话。新朋友没有点击。更重要的是,萨金特发现,有人或某物正在观看他的演讲并做出新的决定:以前曾推荐过其他阴谋的YouTube算法现在更经常推送CBS,ABC或Jimmy Kimmel Live发布的主流视频,包括那些揭穿或嘲弄阴谋论者的想法。 YouTube并未删除Sargent的内容,但不再增加其内容。当关注是货币时,那几乎是同一回事。
“基本上,您永远不会看到推荐给您的平面视频。”当我们在2020年4月首次讲话时,他沮丧地告诉我。这就像YouTube切换了开关一样。
从某种意义上讲,它已经做到了。实际上,有数十种算法是从2019年开始部署的一小部分算法调整。Sargent's是最早感受到YouTube大型项目的影响的人之一,该项目教导其推荐AI如何识别阴谋思维方式并对其进行降级。这是一项复杂的工程壮举,而且行之有效。该算法现在不太可能引起错误信息。但是在一个到处都推荐有阴谋的国家(包括总统本人),即使是最好的人工智能也无法解决问题。
当Google在2006年收购YouTube时,这是一家毛茸茸的创业公司,其前提是DIY:“广播自己”。当时的YouTube员工并没有对阴谋理论或虚假信息进行过多思考。正如一位早期员工告诉我的那样,最大的担忧是他们内部所说的“嘘声和斩首”-大量色情内容和基地组织的恐怖行动。
不过,从一开始,YouTube高管就直言不讳,建议可能会刺激人们长时间浏览视频。到2010年,该网站建议使用协作过滤的视频:如果您观看了视频A,并且很多观看了A的人也观看了B,那么YouTube也会推荐您观看B。这个简单的系统还假设视频是有价值的信号,它还对获得大量观看次数的视频进行了排名。这种方法倾向于创造赢家通吃的动力,从而产生“江南风格”式病毒式传播。鲜为人知的上传很少有机会。
2011年,Google聘请当时的工程总监Cristos Goodrow来监督YouTube的搜索引擎和推荐系统。 Goodrow注意到YouTube专注于观看次数引起的另一个问题是,它鼓励创作者使用误导性的策略(例如,缩略图)来欺骗人们点击。即使观众立即放手,点击也会使观看次数增加,从而提高了视频的推荐率。
Goodrow和他的团队决定停止根据点击次数对视频进行排名。相反,他们专注于“观看时间”,即观众观看视频的时间。在他们看来,这真是更好的真实兴趣度量。到2015年,他们还将引入神经网络模型来提出建议。该模型将执行您的操作(无论您是否完成了一段视频,例如说完还是打了“赞”),并将其与它收集的其他信息(例如,您的搜索历史,地理区域,性别和年龄;例如用户的“观看历史”也变得越来越重要)。然后,该模型将预测您最有可能实际观看哪些视频,并预先存储:推荐,比以往任何时候都更加个性化。
推荐系统对于YouTube疯狂推动增长变得越来越重要。 2012年,YouTube产品副总裁Shishir Mehrotra宣布,到2016年底,该网站每天的观看时间将达到10亿小时。这是一个大胆的目标。当时,人们每天仅在YouTube上观看YouTube的时间就超过1亿小时,而在Facebook上则超过1.6亿小时,在电视上则超过50亿小时。因此,古德罗(Goodrow)和工程师开始急切地寻找任何可能使观看时间增加的细微调整。苏珊·沃西基(Susan Wojcicki)接任CEO时,到2014年,这个十亿小时的目标“是YouTube上的一种宗教,几乎排除了所有其他宗教,”她后来告诉风险资本家约翰·多尔(John Doerr)。她保持了目标。
算法上的调整有效。人们在网站上花费的时间越来越多,新的代码意味着小型创作者和小众内容正在寻找他们的受众。正是在这段时间里,萨金特看了他的第一个平面视频。不只是平凡的人。各种各样的错误信息(其中有些是危险的)上升到观看者的信息源中。十几岁的男孩遵循了极右翼白人至上主义者和Gamergate阴谋的建议;老人陷入政府思想控制的循环中;发现抗疫苗虚假信徒。在巴西,一位名叫杰尔·博尔索纳罗(Jair Bolsonaro)的边际立法者从默默无闻上升为显赫地位,部分原因是发布了YouTube视频,他们虚假地宣称左翼学者在使用“同性恋工具”将孩子转变为同性恋。
在2016年美国大选季节的温室里,观察家认为YouTube的建议正在将选民聚集在越来越极端的内容中。阴谋思想家和右翼煽动者上传了关于希拉里·克林顿即将崩溃的精神崩溃和卷入不存在的比萨饼恋童癖环的虚假谣言,然后高兴地看着他们的视频在YouTube的Up Next专栏中上映。一位名叫Guillaume Chaslot的前Google工程师编写了一个网络爬虫程序,以查看YouTube的算法是否具有政治倾向等其他内容。他发现,建议在很大程度上有利于特朗普以及反克林顿的材料。他认为,计时系统正在为最愿意讲奇妙谎言的人优化。
随着2016年的过去和十亿小时的最后期限迫在眉睫,工程师们进入了超速驾驶状态。推荐已成为YouTube的震撼引擎,占YouTube观看时间的惊人比例达到了70%。反过来,YouTube成为Alphabet帝国的主要收入来源。
Goodrow达到了目标:2016年10月22日,即总统选举前几周,用户在YouTube上观看了10亿小时的视频。
在2016年大选之后,科技行业开始考虑。批评者加入了Facebook用来提高阴谋诡计的算法,并批评了Twitter放任俄罗斯机器人的方阵。对YouTube的审查在稍后出现。 2018年,加州大学伯克利分校的一位名为Hany Farid的计算机科学家与Guillaume Chaslot联手再次运行他的刮板。这次,他们每天运行该程序15个月,专门寻找YouTube推荐阴谋视频的频率。他们发现这一频率全年都在上升。在高峰期,推荐的视频中有近十分之一是阴谋家的票价。
“事实证明,人性是可怕的,” Farid告诉我,“并且算法已经弄清楚了,这就是推动互动的原因。”正如2006年至2009年在YouTube工作过的米卡·沙弗(Micah Schaffer)告诉我:“的确,他们沉迷于这种流量。”
YouTube高管否认十亿小时的努力导致了一场阴谋宴会。古德罗说:“我们看不到证据表明,极端内容或错误信息平均比其他任何东西更具吸引力,或者产生了更多的观众。” (YouTube还挑战了Farid和Chaslot的研究,称其“不能准确反映YouTube的建议如何运作,或者人们如何观看和与YouTube互动。”)但是,在YouTube内部,“不受限制地广播自己”的原则与有关安全和错误信息的担忧。
2017年10月1日,当一名男子在拉斯维加斯的一场音乐会上用武器向人群开枪时,YouTube用户立即开始上传虚假标志的视频,声称拍摄是精心策划的,以煽动反对第二修正案。
枪击事件发生后仅12小时,Geoff Samek担任YouTube产品经理的第一天。几天来,他和他的团队衣衫agged,试图找出精彩的视频并将其删除。他告诉我,他为应对这样的危机准备得很少而感到“惊讶”。 (当我问他经历的感觉如何时,他给我发了一段短片,内容是蒂姆·罗宾斯(Tim Robbins)在《哈德萨克代理》中作为新邮件室的一员而大喊大叫。)推荐系统显然使事情变得更糟;正如BuzzFeed的记者发现的那样,即使在枪击事件发生三天后,该系统仍在宣传诸如“证明:媒体与法律执行在说谎”之类的视频。
“我可以说这是充满挑战的第一天,” Samek淡淡地告诉我。 “坦率地说,我认为我们的网站在误导信息方面表现不佳……我认为这为我们带来了很多好处,这是一个转折点。”
YouTube已经制定了禁止某些类型的内容的政策,例如色情或煽动暴力的言论。为了搜寻和删除这些视频,该公司使用了AI“分类器”,该代码通过分析视频中的标题或单词(YouTube使用其自动语音生成的内容)来自动检测可能违反政策的视频。文本软件)。他们还拥有人类主持人,负责审核AI标记为删除的视频。
拉斯维加斯枪击事件发生后,高管们开始将更多精力放在应对挑战上。 Google的内容审核者增加到10,000,YouTube设立了一个“情报台”,以寻找虚假信息和其他“不适当内容”新趋势的人们。 YouTube对仇恨言论的定义已扩展到包括亚历克斯·琼斯(Alex Jones)所说的桑迪胡克小学谋杀案从未发生的说法。该网站已经创建了一个“最新新闻架子”,该架子将在首页上运行,并展示指向Google新闻先前审查过的新闻来源的内容的链接。正如YouTube首席产品官Neal Mohan指出的那样,目标不仅是删除明显不好的内容,而且还应增加可靠的主流资源。在内部,他们开始将此策略称为R的集合:“删除”违规材料并“提高”质量的东西。
但是,对于还不够糟糕的内容,如何删除呢?就像所谓的阴谋或可疑信息不鼓吹暴力或不提倡“危险补救或治疗”或以其他方式明显违反政策?那些视频不会被主持人或阻止内容的AI删除。但是,一些高管想知道他们是否通过提升自己而成为同谋。 YouTube产品管理副总裁之一约翰娜·赖特(Johanna Wright)说:“我们注意到有些人在观看我们不满意的事物,就像平地视频一样。”高管们开始将这种情况称为“边界”内容。赖特说:“这接近政策,但不违反我们的政策。”
到2018年初,YouTube的高管们决定他们也要解决边界问题。这就需要在他们的策略中增加第三个R,即“减少”。他们需要设计一个新的AI系统,该系统可以识别阴谋内容和错误信息并降低其排名。
2月,我参观了位于加利福尼亚州圣布鲁诺的YouTube总部。古德罗答应向我展示新AI的秘密。
在爱荷华州预选会议的第二天,计票应用程序惨败。新闻周期疯狂地旋转着,但是在YouTube内部,情绪似乎很平静。我们走进一间会议室,古德罗pl缩在椅子上,打开笔记本电脑。他的头发剪短,穿着规范的中年爸爸风格,穿着米色卡其布上的黑色拉链毛衣。经过培训的数学家,古德罗可能会很热情。他是十亿小时项目的顽强拥护者,每天都通过神经学检查观看量。去年冬天,他在民主党初选中为他的圣马特奥县(San Mateo County)国会选区进行了短暂而失败的竞选。我和古德罗(Goodrow)和干re的德国人安德烈·罗(Andre Rohe)一起加入了该公司,他在领导Google新闻三年后,于2015年加入YouTube,担任发现工程部主管。
Rohe招呼我到他的屏幕上。他和古德罗似乎有些紧张。 Google的任何系统的内部运作都是密不可分的秘密。工程师担心,如果他们过多地揭示了任何算法的工作原理(尤其是旨在降低内容排名的算法),那么外部人员可能会学会胜过它。罗氏(Rohe)和古德罗(Goodrow)首次准备向记者透露有关建议修订的一些细节。
要创建可以识别边界视频内容的AI分类器,您需要使用数千个示例来训练AI。为了获得这些培训视频,YouTube必须要求数百名普通人来决定什么看上去很狡猾,然后将他们的评估结果和那些视频提供给AI,以便它可以学会识别什么样的看上去很狡猾。这就提出了一个基本问题:什么是“边界”内容?要求随机的人识别猫或人行横道的图像是一回事,特朗普支持者,黑人生活问题活动家甚至是QAnon信奉者都可以达成共识。但是,如果他们希望他们的人类评估者认识到一些微妙的东西(例如有关共济会的录像是对集团历史的研究还是对他们今天秘密管理政府的幻想),则他们需要提供指导。
YouTube组建了一个小组来解决这个问题。它的许多成员来自政策部门,该部门负责制定并不断更新有关YouTube禁止的内容的规则。他们提出了一组大约三打的问题,旨在帮助人们确定内容是否朝着那些禁区的方向明显移动,但并没有完全到达目标区域。
从本质上讲,这些问题是将成为AI智慧的人类判断的框架。这些隐藏的内部作品在Rohe的屏幕上列出。他们允许我做笔记,但不会给我一份副本以备忘用。
一个问题问视频是否似乎“鼓励对他人的有害或危险行为”或对观众本身。为帮助缩小内容类型构成“有害或危险行为”的范围,我们提供了一组复选框,指出YouTube努力应对的各种众所周知的自残行为,例如鼓励厌食症行为的“赞成”视频或图片自我伤害的形象。
古德罗说:“如果您只是问'‘这是有害的错误信息吗?’,那么每个人对什么是有害的都有不同的定义。” “但是然后你说,‘好吧,让我们通过说,将它更多地转移到具体的特定领域,这与自我伤害有关吗?这是什么危害?’那么,您往往会获得更高的共识和更好的结果。”评估人员可以在其中写一个开放式框以解释他们的想法。
另一个问题要求评估人员根据种族,宗教,性取向,性别,国籍或退伍军人的身份来确定视频是否“一群人的包容性”。但是还有一个补充问题:“视频讽刺吗?” YouTube的政策禁止仇恨言论,例如在种族群体中散布谎言,但它们可以允许通过模仿来模仿这种行为的内容。
罗伊(Rohe)指出了另一类,询问视频是否“不准确,误导或具有欺骗性”。然后,它继续要求评估者检查可能适用的所有可能的事实废话类别,例如“未经证实的阴谋理论”,“说明性的不准确信息”,“欺骗性内容”,“城市传说”,“虚构的故事或神话, ”或“与公认的专家共识相抵触。”除了观看视频的时间之外,评估人员每个人都花大约5分钟的时间评估每个视频,并鼓励他们进行研究以帮助理解其背景。
Rohe和Goodrow表示,他们试图通过选择年龄,地理位置,性别和种族不同的人来减少人类评估者的潜在偏见。他们还确保每个视频最多由9位独立的评估人员进行评分,以便结果像古德罗所说的那样属于“一群人的智慧”。任何具有医学主题的视频均由一组医生(而非普通人)评定。
评估者观点的这种多样性
......