错误信息造成了新的世界疾病

2020-11-27 22:31:09

在线上存在许多类型的信息混乱,从伪造的视频到模拟的帐户,再到旨在操纵真实内容的模因。

自动化和微观定位策略使虚假信息代理更容易利用社交网络的常规用户传播有害消息。

需要大量研究来了解虚假信息的影响并建立防范措施。

作为研究错误信息对社会的影响的人,我经常希望那些能够实现快速沟通的硅谷年轻企业家在被商业应用之前,被迫使用他们的技术运行9/11方案。

那天最具标志性的图像之一是纽约人向上凝视着一大群。照片的力量在于我们知道他们所看到的恐怖。很难想象,今天,该场景中的几乎每个人都会拿着智能手机。有些人会拍摄他们的观察结果并将其发布到Twitter和Facebook。在社交媒体的推动下,谣言和错误信息将会猖ramp。针对穆斯林社区的充满仇恨的帖子将会激增,由于对前所未有的分享,评论和喜欢程度做出反应的算法激起了人们的猜测和愤怒。外来的虚假信息会加剧分裂,导致社区之间的冲突和播种混乱。同时,那些滞留在塔顶上的人将直播他们的最后时刻。

在历史上最糟糕的时刻中进行压力测试技术可能已经阐明了社会科学家和宣传家们早已知道的事情:如果人们强化了现有的信念和偏见,人们就会对情绪的触发做出反应并分享错误的信息。取而代之的是,社交平台的设计者强烈地相信,联系会驱动宽容并抵消仇恨。他们看不到技术如何不会改变我们的根本身份,它只能映射到现有的人类特征。

自1990年代中期以来,网上一直存在错误信息。但是在2016年的几起事件中,大体上清楚地表明,出现了更黑暗的力量:自动化,微观定位和协调正在推动旨在大规模操纵民意的信息运动。由于Facebook的大量活动,罗德里戈·杜特尔特(Rodrigo Duterte)上台后,菲律宾的记者开始举起旗帜。随后在6月的英国脱欧公投以及11月的美国总统大选中取得了出乎意料的结果,所有这些都激发了研究人员系统地研究将信息用作武器的方式。

在过去的四年中,关于造成污染信息生态系统原因的讨论几乎完全集中在技术公司已采取(或未采取)的行动上。但是这种固定太简单了。复杂的社会变化网络使人们更容易受到错误信息和阴谋的影响。由于政治和经济动荡,对机构的信任度正在下降,最显着的原因是收入差距的不断扩大。气候变化的影响越来越明显。全球移民趋势引发了人们对社区将发生不可挽回变化的担忧。自动化的兴起使人们担心自己的工作和隐私。

想要加深现有紧张关系的坏演员了解这些社会趋势,设计内容,他们希望如此激怒或激发目标用户,使观众成为使者。目标是用户将使用自己的社会资本来增强原始信息的信誉。

大部分内容的设计目的不是说服人们朝某个特定的方向前进,而是引起混乱,压倒一切并破坏从选举制度到新闻业对民主制度的信任。尽管为美国选民为2020年大选做准备有很多工作,但误导性和阴谋性的内容并非始于2016年总统大选,也不会在此之后结束。随着设计用来操纵和放大内容的工具变得更便宜,更容易获得,将用户武器化为不知情的虚假信息将变得更加容易。

通常,用于讨论错误信息问题的语言过于简单。有效的研究和干预措施需要明确的定义,但许多人使用有问题的短语“假新闻”。这个词被全世界的政客用来攻击新闻自由,这是危险的。最近的研究表明,观众越来越多地将其与主流媒体联系起来。它通常被用作描述不相同事物的统称,包括谎言,谣言,恶作剧,错误信息,阴谋和宣传,但也涉及细微差别和复杂性。这些内容中的大部分甚至都没有伪装成新闻,而是在Facebook和Instagram上以模因,视频和社交帖子的形式出现。

2017年2月,我创建了七种类型的“信息混乱”,以强调用来污染信息生态系统的内容范围。除其他外,其中包括讽刺,这不是故意造成伤害,但仍然有愚人的可能。虚假的内容,是100%虚假的,旨在欺骗和造成伤害;错误上下文,即与错误上下文信息共享真实内容的时间。那年下半年,我和科技新闻记者侯赛因·德拉克尚(Hossein Derakhshan)发表了一份报告,勾勒出虚假信息,错误信息和错误信息之间的区别。

虚假信息的提供者(故意制造虚假内容并造成伤害的内容)的动机来自三个不同的目标:赚钱;具有外国或国内的政治影响力;并为此造成麻烦。

那些散布错误信息的人(由不认识它的人所共享的虚假内容是虚假的或误导性的)受社会心理因素的驱使。人们在社交平台上表现出自己的身份,以与他人建立联系,无论“其他”是一个政党,未为孩子接种疫苗的父母,关注气候变化的激进主义者还是属于某种宗教,种族的人或民族。至关重要的是,当人们在没有意识到虚假信息的情况下共享虚假信息时,虚假信息可能会变成虚假信息。

我们添加了“格式错误”一词,以描述旨在造成伤害的真实信息。例如,俄罗斯特工入侵了民主党全国委员会和希拉里·克林顿(Hillary Clinton)竞选活动的电子邮件,并向公众泄露了某些细节以损害声誉。

自2016年以来,在全球八次选举中监视错误信息后,我观察到策略和技术的转变。最有效的虚假信息始终是带有真实性的虚假信息,实际上,现在传播的大多数内容都不是伪造的,它具有误导性。代言人不是完全编造故事,而是改写真实内容并使用双曲线标题。该策略涉及将真实内容与两极分化的话题或人物联系在一起。由于不良行为者总是比平台审核领先一个步骤(或多个步骤),因此他们将情感不真实信息重新标记为讽刺,以便事实检查过程不会发现它。在这些努力中,正在为环境而不是内容提供武器。结果是故意的混乱。

例如,众议院议长南希·佩洛西(Nancy Pelosi)的编辑视频于2019年5月发行。这是一个真实的视频,但虚假信息的经纪人放慢了视频播放速度,然后发布了该剪辑,以使佩洛西似乎在说她的话。正如预期的那样,一些观众立即开始猜测佩洛西喝醉了,并且视频在社交媒体上传播。然后,主流媒体选择了它,这无疑使更多的人意识到了该视频,而不是原来遇到的那样。

研究发现,传统上对误导性内容的报道可能会造成更大的危害。我们的大脑必须依靠试探法或思维捷径来帮助我们判断信誉。结果,即使观众已经收到了解释他们为什么应该知道叙述不真实的上下文信息,重复和熟悉也是根深蒂固的误导性叙述的两个最有效的机制。

坏演员知道这一点:2018年,媒体学者惠特尼·菲利普斯(Whitney Phillips)为数据与社会研究所发布了一份报告,探讨了那些试图推动虚假和误导性叙事的人如何使用技巧来鼓励记者报道其叙事。未来研究所(Institute for the Future)的另一份最新报告发现,只有15%的美国新闻记者接受了如何更负责任地报道错误信息的培训。对于记者和事实检查人员以及任何有广泛影响力的人(例如政客和有影响力的人)而言,现在面临的主要挑战是如何在不给最初的内容增添更多氧气的情况下,解开和揭穿诸如佩洛西视频之类的虚假信息。

2017年1月,NPR电台节目《美国生活》在他的就职典礼之一DeploraBall上采访了少数特朗普支持者。这些人大量参与使用社交媒体来倡导总统。在特朗普的出人意料的提升中,一位受访者解释说:“我们让他掌权……我们指导了这种文化。”

理论家理查德·道金斯(Richard Dawkins)在其1976年的著作《自私的基因》中首次使用“模因”一词来描述“一种文化传播单位或一种模仿单位”,一种在整个文化中迅速传播的观念,行为或风格。在过去的几十年中,该词被用来描述一种通常是视觉的在线内容,并采用特殊的美学设计,将色彩鲜艳,醒目的图像与文本结合在一起。它通常是指其他文化和媒体事件,有时是显性的,但大多是隐性的。

模因逻辑的这种特征(对事件或人的共享知识的点头和眨眼)是使模因具有影响力的原因。语素是修辞手段,通过缺乏前提或结论来进行论证。通常,关键参考文献(最近的新闻事件,政治人物的言论,广告活动或更广泛的文化趋势)并没有清楚地说明,从而迫使观看者将点子联系起来。观看者所需的这项额外工作是一种说服力的技术,因为它使个人陷入与他人建立联系的感觉。如果模因是为了取笑或以其他团体为代价而引起愤怒,那么这些联系会进一步加强。

这些视觉格式的看似有趣的性质意味着,模因并未被许多研究和政策界所公认,是造成虚假,阴谋或仇恨的有力工具。然而,最有效的错误信息是将被共享的信息,而模因往往比文本更易于共享。整个叙述在您的供稿中可见;无需单击链接。安晓敏娜(An Xiao Mina)于2019年出版的《运动的模因》一书概述了模因如何改变社会抗议活动和权力动态,但这种认真的检查相对罕见。

的确,在俄罗斯人在Facebook上与2016年大选相关的帖子和​​广告中,有很多是模因。他们的重点是使候选人如伯尼·桑德斯,希拉里·克林顿或唐纳德·特朗普两极化,并使两极化政策如枪支权利和移民两极化。俄罗斯的努力常常针对种族或宗教群体,例如“黑人生活”或“福音派基督徒”。当Facebook上发布了由俄罗斯产生的模因的档案时,当时的一些评论集中在模因的缺乏及其影响上。但是研究表明,当人们感到恐惧时,过于简单的叙述,阴谋论的解释和妖魔化他人的信息会变得更加有效。这些模因足以吸引人们单击共享按钮。

诸如Facebook,Instagram,Twitter和Pinterest之类的技术平台在鼓励人类行为方面起着重要作用,因为它们被设计为具有表演性。在共享之前,放慢速度检查内容是否真实,比在您喜欢或讨厌某项政策的这些平台上增强“受众”吸引力要小得多。这些身份证明平台附加了许多此类平台的业务模型,因为它鼓励您在其网站上花费更多时间。

研究人员现在正在构建监视技术,以跟踪不同社交平台上的模因。但是他们只能调查他们可以访问的内容,并且许多社交平台上的可视帖子中的数据无法提供给研究人员。另外,用于学习文本的技术(例如自然语言处理)比用于研究图像或视频的技术要先进得多。这意味着正在推出的解决方案背后的研究偏向于基于文本的推文,网站或通过URL发布的文章,以及政客在讲话中对主张的事实核对。

尽管出于正当理由,科技公司承担了很多责任,但它们也是其经营所在的商业环境的产物。没有任何算法上的调整,对平台内容审核准则的更新或法规上的罚款都不会单独改善我们所需的信息生态系统。

在健康的信息共享环境中,人们仍然可以自由表达自己想要的信息,但是算法不会放大旨在误导,煽动仇恨,增强部落主义或造成人身伤害的信息。这意味着它不允许在Twitter或YouTube内容推荐器中流行。它也不会选择出现在Facebook提要,Reddit搜索或Google最佳搜索结果中。

在解决这一放大问题之前,正是我们愿意分享而又不认为虚假信息代理人将用作武器。因此,混乱的信息环境要求每个人也认识到他或她也可以成为信息战争中的媒介,并开发出一套技巧来浏览在线和离线通信。

当前,有关公众意识的讨论通常集中在媒体素养上,并且往往带有家长式的框架,即仅仅需要教会公众如何成为更聪明的信息消费者。取而代之的是,应该更好地教会在线用户发展情绪怀疑论中的认知“肌肉”,并训练他们承受旨在引发基本恐惧和偏见的内容的冲击。

在2018年1月的情况下,任何使用促进社交互动的网站的人都会很好地了解它们的工作原理,尤其是算法如何通过“优先发布引发人与人之间的对话和有意义的互动的帖子”来确定用户看到的内容。 Facebook更新其排名。我还建议每个人至少尝试在Facebook上购买一次广告。设置活动的过程有助于提高对可用信息粒度的理解。您可以选择针对一个特定的子类别,针对年龄在32至42岁之间的女性,这些女性居住在北卡罗来纳州的Raleigh-Durham地区,有学龄前儿童,有研究生学历,是犹太人,就像Kamala Harris。该公司甚至允许您在允许您私下失败的环境中测试这些广告。这些“深色广告”使组织可以将帖子定位于特定人员,但它们不在该组织的主页上。这使得研究人员或新闻记者很难追踪针对不同人群的职位,这在选举中尤为重要。

Facebook事件是操纵的另一个渠道。外国干预美国大选最令人震惊的例子之一是在德克萨斯州休斯顿举行的抗议,但完全由俄罗斯的巨魔精心策划。他们建立了两个Facebook页面,这些页面看上去真是美国人。其中一个被命名为“德克萨斯州的心脏”并支持分裂国家。它在2016年5月21日创建了一个名为“德克萨斯州停止伊斯兰化”的“活动”。另一页“美利坚合众国穆斯林”则在相同的时间和地点刊登了自己的抗议活动,名为“拯救伊斯兰知识”。结果是,两组人出来互相抗议,而抗议的真正创造者则庆祝成功地扩大了休斯顿的现有紧张局势。

虚假信息代理的另一种流行策略被称为“乱扔草皮”。这个词最初与那些为在线产品撰写假评论或试图使粉丝群体比实际规模更大的人相关。现在,自动化的竞选活动使用机器人或热情的支持者和付费巨魔的精密协调,或两者的结合,使一个人或一个政策似乎获得了相当大的基层支持。他们希望通过在Twitter上使用特定的标签趋势,希望特定的消息能被专业媒体所接受,并将这种放大引导到欺凌特定的人或组织,使其保持沉默。

了解我们每个人如何受到此类运动的影响,并且可能不知不觉地参与其中,这是与那些企图颠覆共同现实感的人进行斗争的关键的第一步。但是,也许最重要的是,接受我们的社会对人为放大的脆弱性的接受需要明智而冷静地进行。恐吓只会助长更多的阴谋,并继续压低人们对质量信息来源和民主制度的信任。对于武器化的叙述,没有永久性的解决方案。相反,我们需要适应这一新常态。正如戴防晒霜是一种习惯,随着时间的流逝,社会逐渐发展,然后随着其他科学研究的出现而逐渐适应,养成应对无序信息环境的适应能力也需要同样考虑。

信息障碍:建立研究和政策制定的跨学科框架。克莱尔·沃德尔(Claire Wardle)和侯赛因·达拉克尚(Hossein Derakhshan)。欧洲委员会,2017年10月。

网络宣传:美国政治中的操纵,虚假信息和激进主义。 Yochai Benkler,Robert Faris和Hal Roberts。牛津大学出版社,2018年。

运动模因:世界上最流行的媒体如何改变社会抗议和力量。安小美娜灯塔报,2019。

启动和伪造新闻:精英话语对新闻媒体评估的影响。 Emily Van Duyn和Jessica Collier在《大众传播与社会》第一卷22,第1号,第29-48页; 2019。