卡内基梅隆大学知情民主与社会网络安全中心的凯瑟琳·M·卡利和她的团队已经跟踪机器人和影响活动很长一段时间了。她说,在美国和外国的选举、自然灾害和其他政治化事件中,BOT的参与水平通常在10%到20%之间。
但在一项新的研究中,研究人员发现,在讨论冠状病毒的Twitter账户中,机器人可能占到45%到60%。其中许多账户创建于2月份,自那以后一直在传播和放大错误信息,包括虚假的医疗建议、关于病毒来源的阴谋论,以及推动结束在家订单并重新开放美国。
他们遵循老套的协调影响运动模式,他们的策略已经奏效:自危机开始以来,研究人员观察到Twitter上围绕这个话题的讨论出现了更大的两极分化。
许多因素可以解释这种激增的原因。这场大流行的全球性意味着更多的行为者有动机利用这场危机作为实现其政治议程的一种方式。虚假信息现在总体上也更协调了,有更多的公司可以雇佣来创造这样的影响活动。
但令该中心主任卡利担忧的不仅仅是账户数量。他们的行为模式也变得更加复杂。机器人现在往往与其他账户建立了更深的网络联系,这使得它们更容易广泛传播自己的信息。他们还采取更多策略,瞄准移民和少数族裔等高危群体,并帮助从事仇恨言论的真实账户形成在线群体。
为了进行他们最新的分析,研究人员研究了自1月份以来超过2亿条讨论冠状病毒或冠状病毒的推文。他们使用机器学习和网络分析技术来识别哪些账户在散布虚假信息,哪些账户最有可能是机器人或半机械人(由机器人和人类联合运营的账户)。
该系统寻找虚假信息账户可以执行的16种不同的操作,包括在两个群体之间建立“桥梁”(连接两个在线社区),“支持”个人(跟随账户以提高个人的感知影响力),以及“核”一个群体(导致在线社区被拆除的行为)。
通过分析,他们识别了100多种不准确的冠状病毒故事,并发现不仅机器人获得了吸引力并积累了粉丝,而且它们在前50名中占了82%,在前1000名有影响力的转发者中占了62%。计算每个账号的影响力是为了反映它达到的粉丝数量以及它的粉丝达到的数量。
研究人员已经开始分析Facebook、Reddit和YouTube,以了解虚假信息是如何在平台之间传播的。这项工作还处于早期阶段,但已经揭示了一些意想不到的模式。首先,研究人员发现,许多虚假信息故事在被不同的社交平台转载并放大之前,来自常规网站或博客。不同类型的故事也有不同的出处模式。例如,那些声称该病毒是生化武器的人大多来自所谓的“黑色新闻”网站,即经常在美国境外运行的旨在传播虚假信息的假新闻页面。相比之下,“重新打开美国”的论调主要来自美国的博客和Facebook页面。
研究人员还发现,不同平台的用户对此类内容的反应方式会截然不同。例如,在Reddit上,版主更有可能揭穿和禁止虚假信息。当Facebook上突然出现了一场围绕重新开放美国的协调运动时,Reddit用户开始讨论这一现象,并对这一消息进行了反驳。“他们说,‘不要相信那些东西。你不能信任Facebook,‘“卡利说。
不幸的是,这个问题没有简单的解决方案。禁止或删除帐户是行不通的,因为每删除一个帐户,就会出现更多帐户。禁止散布不准确事实的账户也解决不了任何问题。她说:“很多虚假信息都是通过含沙射影或不合逻辑的陈述来传递的,而这些都很难被发现。”
卡利说,研究人员、公司和政府需要更好地协调,拿出有效的政策和做法来遏制这种情况。她说:“我认为我们需要一个总的监督小组。”“因为没有一个团体可以单独做到这一点。”