YouTube教会了它的推荐系统如何识别和降级阴谋视频,但有机链接共享和BOT推广正在阻碍它的努力

2020-09-20 14:11:45

马克·萨金特立刻发现他的情况变得更糟了。萨金特现年52岁,健谈,白发,是一名平地福音传道者,住在华盛顿州的惠德贝岛,开着一辆挂着虚荣牌“ITSFLAT”的克莱斯勒。但他在世界各地都很出名,至少在那些不相信自己生活在其中的人中是如此。这要归功于YouTube,它既是他平地思想的入口,也是他后来成为国际明星的平台。

萨金特以前是一名技术支持人员,也是一名有竞争力的虚拟弹球运动员,长期以来,他一直对阴谋论感兴趣,从不明飞行物到大脚怪,再到猫王的不朽。他相信一些人(大脚野人),怀疑另一些人(“猫王还活着吗?大概不会吧。他死在马桶上,体内有一大堆毒品“)。然后,在2014年,他偶然在YouTube上发现了他的第一个平地视频。

他不停地想着这件事。2015年2月,他开始上传自己的沉思,在一个名为“平坦的地球线索”的系列节目中。正如他在一个1600多个视频组成的庞大语料库中重申的那样,我们的星球不是一个漂浮在太空中的球,而是一个平坦的、杜鲁门秀一样的养殖场。坚持不这样认为的科学家是错误的,NASA是彻头彻尾的谎言,政府不敢与你开诚布公,因为那样它就不得不承认更高的权力(外星人?神?。萨金特(对这一部分不太确定)建造了我们的陶器世界。

萨金特的视频是故意低保真的。经常有一个幻灯片放映,其中可能包括哥白尼(被欺骗)、太空中的宇航员(伪造的)或南极洲(一个政府阴谋集团为了隐藏地球边缘而禁止进入)的图像,这些图像出现在屏幕上,他用冷酷、慈祥的画外音说话。

萨金特在YouTube上的顶级视频获得了近120万的点击量,他已经积累了89200名粉丝-以现代影响力的标准来看,这算不上史诗,但足够稳固,足以通过预播广告、付费演讲和会议演出谋生。

他说,他成功的关键是YouTube的推荐系统,这一功能可以将视频推荐给你在主页上观看,或者在你正在观看的视频右侧的“下一页”栏中观看。“我们经常被推荐,”他告诉我。他说,YouTube的算法计算出,“进入平地的人显然会掉进这个兔子洞,所以我们将继续推荐。”

研究阴谋论的学者也意识到了这一点。YouTube是一种入门毒品。一位学者采访了一场平地大会的与会者,他发现,几乎对一个人来说,他们通过YouTube的推荐发现了这种亚文化。虽然人们可能会耸耸肩,认为这是边缘的怪异-他们认为地球是平的,但谁在乎呢?享受疯狂吧,伙计们--学术文献发现阴谋论思维常常殖民于头脑。从平坦的地球开始,你可能很快就会相信桑迪·胡克(Sandy Hook)是一次虚假的行动,或者疫苗会导致自闭症,或者Q&39;关于民主党恋童癖者的警告是一个严重的问题。一旦你说服自己,关于太阳系的有据可查的事实是一场骗局,为什么要相信关于任何事情的有据可查的事实呢?也许最值得信任的人是局外人,那些敢于挑战传统的人,正如萨金特所理解的那样,如果没有YouTube的算法放大它们,他们的权力就会小得多。

四年来,萨金特的平地视频从YouTube的算法中获得了稳定的流量。然后,在2019年1月,新观众的流量突然放缓为涓涓细流。他的视频并不经常被推荐。当他在网上与他的平地同行交谈时,他们都说了同样的话。新来的人并不合拍。萨金特发现,更重要的是,有人(或其他人)正在观看他的讲座,并做出新的决定:之前推荐其他阴谋的YouTube算法现在更多地推送由CBS、ABC或Jimmy Kimmel Live发布的主流视频,包括那些揭穿或嘲弄阴谋论的视频。YouTube没有删除萨金特的内容,但它不再推动它的发展。当注意力就是货币时,那几乎是一回事。

当我们在2020年4月第一次交谈时,他沮丧地告诉我:“你永远不会看到推荐给你的平面地球视频,基本上永远不会。”这就像YouTube按下了开关一样。

在某种程度上,确实是这样。实际上,其中几十个是从2019年开始部署的一小批算法调整。萨金特是第一批感受到YouTube一个宏大项目的影响的账户之一,该项目旨在教会其推荐人工智能如何识别阴谋论思维并将其降级。这是一项复杂的工程壮举,而且奏效了;该算法现在不太可能宣扬错误信息。但是,在一个到处都在推荐阴谋的国家--包括总统本人--即使是最好的人工智能也不能修复坏掉的东西。

当谷歌在2006年收购YouTube时,它还是一家毛茸茸的初创公司,前提是DIY:“广播你自己。”当时YouTube的工作人员并没有太多考虑阴谋论或虚假信息。正如一名早期员工告诉我的那样,最大的担忧是他们内部所说的“胸部和斩首”-上传色情内容和可怕的基地组织行动。

然而,从一开始,YouTube的高管就直觉地认为,推荐可能会助长长时间的视频冲浪狂欢。到了2010年,该网站开始推荐使用协作过滤的视频:如果你看了视频A,很多看过A的人也看了B,那么YouTube会建议你也看B。这个简单的系统还在假设它是一个价值信号的情况下,对获得大量点击量的视频进行了排名。这种方法倾向于创造赢家通吃的动态,导致“江南Style”式的病毒;鲜为人知的上传很少有机会。

2011年,谷歌任命时任工程总监的克里斯托斯·古德罗(Cristos Goodrow)负责YouTube的搜索引擎和推荐系统。古德罗注意到YouTube专注于点击量带来的另一个问题,那就是它鼓励创作者使用一些误导性的策略--比如淫秽的缩略图--来欺骗人们点击。即使观众立即放弃观看,点击量也会增加,从而提升视频的推荐度。

古德罗和他的团队决定不再根据点击量对视频进行排名。相反,他们关注的是“观看时间”,即观众观看视频的时间;在他们看来,这似乎是衡量真正兴趣的一个好得多的指标。到2015年,他们还将引入神经网络模型来起草建议。该模型会接受你的行为(不管你是否完成了一段视频,或者点赞),并将其与它收集的其他信息(例如,你的搜索历史、地理区域、性别和年龄;用户的“观看历史”也变得越来越重要)融合在一起。然后,该模型将预测你最有可能实际观看的视频,并立即进行推荐,比以往任何时候都更加个性化。

推荐系统对YouTube疯狂推动增长变得越来越重要。2012年,YouTube产品副总裁希希尔·梅赫罗特拉(Shishir Mehrotra)宣布,到2016年底,该网站每天的观看时间将达到10亿小时。这是一个大胆的目标;当时,人们每天只看YouTube 1亿个小时,相比之下,Facebook上的观看时间超过1.6亿小时,电视上的观看时间为50亿小时。因此,古德罗和工程师们开始如饥似渴地寻找任何可以向上调整手表时间的细微调整。苏珊·沃西基(Susan Wojcicki)后来告诉风险投资家约翰·多尔(John Doerr),到2014年,当苏珊·沃西基(Susan Wojcicki)接任首席执行官时,10亿小时的目标“在YouTube是一种信仰,几乎排除了所有其他因素”。她把球门保持在适当的位置。

算法调整奏效了。人们在网站上花费的时间越来越多,新的代码意味着小创作者和利基内容正在找到他们的受众。正是在此期间,萨金特看到了他的第一个平面地球视频。而且,这并不只是平坦的地球人。各种各样的错误信息,其中一些是危险的,上升到了观察者的头条。十几岁的男孩听从了极右白人至上主义者和Gamergate阴谋的建议;老年人陷入了关于政府精神控制的循环;反疫苗的谎言被找到了追随者。在巴西,一位名叫贾尔·博尔索纳罗(Jair Bolsonaro)的边缘议员从默默无闻到声名鹊起,部分原因是他在YouTube上发布了一些视频,错误地声称左翼学者正在使用“同性恋工具包”让孩子们转变为同性恋。

在2016年美国大选季的温室里,观察人士认为,YouTube的推荐正在将选民引导到越来越极端的内容中。阴谋论者和右翼煽动者上传虚假谣言,称希拉里·克林顿(Hillary Clinton)即将精神崩溃,并卷入了一个不存在的披萨店恋童癖团伙,然后高兴地观看了他们的视频在YouTube的Up Next专栏中播出。一位名叫纪尧姆·查斯洛(Guillaume Chaslot)的前谷歌工程师编写了一个网络掠夺器程序,目的之一是查看YouTube的算法是否具有政治倾向性。他发现,这些建议非常有利于特朗普,也非常有利于反克林顿的材料。在他看来,手表计时系统正在为最愿意说谎的人进行优化。

随着2016年的推移,10亿小时的最后期限迫在眉睫,工程师们开始超负荷工作。推荐已经成为YouTube的震撼引擎,占其所有观看时间的70%,这一点令人震惊。反过来,YouTube成为Alphabet帝国的关键收入来源。

古德罗达到了目标:2016年10月22日,也就是总统大选前几周,用户在YouTube上观看了10亿小时的视频。

2016年大选后,科技行业受到了清算。批评人士抨击了Facebook的算法,以增强阴谋论的言辞,并抨击Twitter允许俄罗斯机器人方阵进入。对YouTube的审查出现得稍晚一些。2018年,加州大学伯克利分校(UC Berkeley)一位名叫哈尼·法里德(Hany Farid)的计算机科学家与纪尧姆·查斯洛(Guillaume Chaslot)合作,再次。这一次,他们在15个月的时间里每天运行这个程序,专门寻找YouTube推荐阴谋视频的频率。他们发现,这一频率全年都在上升;在高峰期,推荐的视频中有近十分之一是阴谋者的食物。

“事实证明,人性是可怕的,”法里德告诉我,“算法已经发现了这一点,这就是推动参与的原因。”正如2006年至2009年在YouTube工作的Micah Schaffer告诉我的那样,“他们真的沉迷于流量。”

YouTube高管否认10亿小时的推动导致了一场阴谋盛宴。古德罗说:“我们没有看到任何证据表明极端的内容或错误信息比其他任何东西都更吸引人,或者产生更多的收视率。”(YouTube还对Farid和Chaslot的研究提出质疑,称其“没有准确反映YouTube的推荐方式,也没有准确反映人们观看YouTube的方式和与YouTube互动的方式。”)。但是,在YouTube内部,“不受限制地广播自己”的原则与对安全和错误信息的担忧发生了冲突。

2017年10月1日,当一名男子在拉斯维加斯的一场音乐会上用武器库向人群开枪时,YouTube用户立即开始上传虚假旗帜视频,声称这起枪击事件是为了煽动对第二修正案的反对。

枪击事件发生仅12小时后,杰夫·萨梅克(Geoff Samek)就来到了YouTube担任产品经理的第一天。几天来,他和他的团队疲惫不堪,试图找出虚构的视频并将其删除。他告诉我,他对管理这样一场危机的措施如此之少感到“惊讶”。(当我问他这次经历是什么感觉时,他给我发了一段蒂姆·罗宾斯(Tim Robbins)在哈德萨克代理公司(Huducker Proxy)新聘收发室时被大喊大叫的视频。)。推荐系统显然让事情变得更糟;正如BuzzFeed记者发现的那样,即使在枪击事件发生三天后,该系统仍在宣传“证据:媒体和执法部门在撒谎”之类的视频。

“我可以说这是充满挑战的第一天,”萨梅克冷淡地告诉我。“坦率地说,我不认为我们的网站在错误信息方面表现得非常好……。我认为这为我们开启了很多事情,这是一个转折点。“。

YouTube已经有政策禁止某些类型的内容,比如色情或鼓励暴力的言论。为了追查并删除这些视频,该公司使用了人工智能“分类器”-一种代码,通过分析视频中的标题或话语等信号,自动检测潜在的违反政策的视频(YouTube使用其自动语音转文本软件生成)。他们也有人类版主审查人工智能标记为删除的视频。

拉斯维加斯枪击案发生后,高管们开始更多地关注这一挑战。谷歌的内容版主增加到10000人,YouTube创建了一个“情报台”,由人们在虚假信息和其他“不恰当内容”中寻找新趋势。YouTube对仇恨言论的定义被扩大到包括亚历克斯·琼斯在内,他声称桑迪·胡克小学的谋杀案从未发生过。该网站已经创建了一个“突发新闻书架”,它将运行在主页上,并展示指向谷歌新闻(Google News)之前审查过的新闻来源内容的链接。正如YouTube首席产品官尼尔·莫汉(Neal Mohan)所指出的那样,目标不仅仅是删除那些明显不好的内容,而且是为了促进可靠的主流来源。在内部,他们开始将这一策略称为一套R&39;s:“移除”违规材料并“提升”质量。

但是,如果内容还不够糟糕,不足以被删除,那该怎么办呢?就像所谓的阴谋或可疑的信息,不提倡暴力,不提倡“危险的补救或治疗”,或以其他方式明确违反政策?这些视频不会被版主或内容屏蔽的人工智能删除。然而,一些高管怀疑,他们是否通过提拔他们来共谋。YouTube负责产品管理的副总裁之一约翰娜·赖特(Johanna Wright)说:“我们注意到有些人在看我们不喜欢看的东西,比如平地视频。”这就是高管们开始称之为“边缘”的内容。正如赖特所说,“这接近政策,但并不违反我们的政策。”

到2018年初,YouTube高管决定他们也想解决边缘问题。这将需要在他们的战略中增加第三个R-“减少”。他们需要设计一种新的人工智能系统,能够识别阴谋内容和错误信息,并将其降级。

今年2月,我参观了YouTube位于加利福尼亚州圣布鲁诺的总部。古德罗曾答应向我展示新人工智能的秘密。

那是爱荷华州党团会议的第二天,一款计票应用程序惨败。新闻循环在疯狂旋转,但YouTube内部的情绪似乎很平静。我们鱼贯而入一间会议室,古德罗一下子坐到椅子上,打开他的笔记本电脑。他留着一头短发,穿着一件拉链黑色毛衣,外面穿着米色卡其布,穿着一种普通的中年父亲风格。作为一名训练有素的数学家,古德罗可能很紧张;他是10亿小时项目的顽强倡导者,每天都会神经质地检查视图统计数据。去年冬天,他在他所在的圣马特奥县国会选区的民主党初选中进行了一次短暂的竞选,但以失败告终。古德罗和我还有安德烈·罗(Andre Rohe),这位头脑迟钝的德国人在担任谷歌新闻(Google News)负责人三年后,于2015年来到YouTube担任探索工程主管。

罗伊招手让我到他的屏幕前。他和古德罗似乎有点紧张。谷歌任何系统的内部运作都是严格保密的秘密。工程师们担心,如果他们透露了太多关于任何算法是如何工作的-特别是一个旨在降低内容排名的算法-外人可能会学会智胜。罗伊和古德罗第一次准备向记者透露建议修改的一些细节。

要创建能够识别边缘视频内容的AI分类器,您需要使用数千个示例来训练AI。为了获得这些培训视频,YouTube将不得不让数百名普通人决定哪些看起来不可靠,然后将他们的评估和这些视频提供给人工智能,这样它就可以学会识别什么是不可靠的。这就提出了一个基本问题:什么是“边缘”内容?让随机的人认出一只猫或人行横道是一回事--特朗普的支持者、“黑人生命也是命”(Black Lives Matter)活动家,甚至是QAnon的追随者都会同意这一点。但是,如果他们想让他们的人类评估者认识到一些更微妙的东西--比如关于共济会的一段视频是对该组织历史的研究,还是关于他们今天如何秘密管理政府的幻想-他们需要提供指导。

YouTube召集了一个团队来解决这个问题。它的许多成员来自政策部门,该部门制定并不断更新有关YouTube彻底禁止的内容的规则。他们开发了一套大约30多个问题,旨在帮助人们判断内容是否朝着那些禁区的方向移动了很多,但并没有完全做到这一点。

从本质上讲,这些问题是人类判断力的线框,而人类判断力将成为人工智能的聪明才智。这些隐藏的内部工作原理都列在罗伊的屏幕上。他们允许我做笔记,但不给我一份带走。

其中一个问题是,一段视频看起来是否“鼓励对他人或对观众本身有害或危险的行为”。为了帮助缩小哪些内容构成“有害或危险行为”的范围,有一组复选框指出了YouTube一直在努力解决的各种众所周知的自我伤害问题-比如鼓励厌食症行为的“支持厌食症”视频,或者自我伤害的图形图像。

“如果你一开始就问,‘这是有害的错误信息吗?’那么每个人对什么是有害的定义是不同的,“古德罗说。“但然后你会说,‘好吧,让我们试着把它移到更具体、更具体的领域,说,这是关于自我伤害的吗?这有什么害处呢?“。然后你往往会获得更高的认同度和更好的结果。“。还有一个开放式的盒子,评估者可以在里面写下解释他们的想法。

另一个问题要求评价者根据种族、宗教、性取向、性别、国籍或退伍军人身份来确定视频是否“不容忍一个群体”。但还有一个补充问题:“这段视频是讽刺吗?”例如,YouTube的政策禁止仇恨言论和散布关于种族群体的谎言,但他们可以通过模仿来允许嘲弄这种行为的内容。

罗伊指出了另一类问题,即视频是否“不准确、误导性或欺骗性”。然后,它要求评估者检查所有可能适用的事实废话类别,比如“未经证实的阴谋论”、“证据不准确的信息”、“欺骗性内容”、“都市传说”、“虚构的故事或神话”,或者“与公认的专家共识相矛盾”。除了观看视频所需的时间外,评估人员每人还要花大约5分钟来评估每个视频,并鼓励他们进行研究,以帮助理解其背景。

Rohe和Goodrow说,他们试图通过选择在年龄、地理位置、性别和种族方面不同的人来减少人类评估者中的潜在偏见。正如古德罗所说,他们还确保每个视频都由最多9名独立的评价者进行评级,这样结果就会受到“集体智慧”的影响。任何有医学主题的视频都是由医生团队评级的,而不是外行人。

评估者之间的这种不同观点。

.