Facebook的工程师已经开发出一种新的方法来帮助他们识别和防止有害行为,如用户传播垃圾邮件、诈骗他人或买卖武器和毒品。他们现在可以使用人工智能驱动的机器人,通过让它们在平行版本的Facebook上自由活动,来模拟坏演员的行为。然后,研究人员可以在模拟和实验中研究机器人的行为,并用新的方法阻止它们。
该模拟器被称为WW,发音为“Dub Dub”,基于Facebook的真实代码库。今年早些时候,该公司发表了一篇关于万维网的论文(之所以这么叫,是因为模拟器是万维网的截短版本),但在最近的一次圆桌会议上分享了更多关于这项工作的信息。
这项研究由Facebook工程师马克·哈曼(Mark Harman)和该公司位于伦敦的人工智能部门领导。在接受记者采访时,哈曼表示,WW是一个非常灵活的工具,可以用来限制网站上广泛的有害行为,他给出了使用模拟来开发针对骗子的新防御措施的例子。
在现实生活中,诈骗者通常通过在用户的友谊群中徘徊来寻找潜在的标记来开始他们的工作。为了在WW中模拟这种行为,Facebook的工程师创建了一组“无辜”的机器人作为目标,并训练了一些“坏”机器人,这些机器人探索网络,试图找到它们。然后,工程师们尝试了不同的方法来阻止这些坏机器人,引入了各种限制,比如限制机器人每分钟可以发送的私人消息和帖子的数量,看看这对它们的行为有何影响。
哈曼将这项工作与试图减少繁忙道路超速的城市规划者的工作相提并论。在这种情况下,工程师们在模拟器中对交通流进行建模,然后试验在某些街道上引入减速带等东西,看看它们有什么影响。WW模拟允许Facebook对Facebook用户做同样的事情。
“我们可以将其扩展到数万或数十万个机器人。”
哈曼说:“我们将‘减速带’应用到我们的机器人可以执行的动作和观察中,从而快速探索我们可以对产品进行的可能改变,以在不损害正常行为的情况下抑制有害行为。”“我们可以将其扩展到数万或数十万个机器人,因此,同时搜索许多不同的可能……”约束向量。“。
在机器学习中,模拟你想要研究的行为是一种相当普遍的做法,但WW项目值得注意,因为模拟是基于真实版本的Facebook。Facebook称其方法为“基于网络的模拟”。
“与传统的模拟不同,一切都是模拟的,在基于网络的模拟中,行动和观察实际上是通过真实的基础设施发生的,所以它们更真实,”哈曼说。
他强调,尽管使用了真正的基础设施,但机器人无法以任何方式与用户互动。他说:“通过构造,它们实际上不能与其他机器人以外的任何东西互动。”
别想着研究机器人的科学家会像你那样窥探脸谱网的群组。
值得注意的是,该模拟并不是Facebook的可视副本。不要想象科学家研究机器人行为的方式,就像你在Facebook群里观察人们彼此互动的方式一样。WW不会通过Facebook的GUI产生结果,而是将所有互动记录为数字数据。可以把它看作是看一场足球比赛(真正的Facebook)和简单地阅读比赛统计(WW)之间的区别。
目前,WW也处于研究阶段,该公司与机器人进行的模拟都没有给Facebook带来现实生活中的变化。哈曼说,他的团队仍在进行测试,以检查模拟是否与现实生活中的行为匹配,并具有足够高的保真度,以证明现实生活中的变化是合理的。但他认为,到今年年底,这项工作将导致Facebook代码的修改。
模拟器当然也有局限性。例如,WW不能模拟用户意图,也不能模拟复杂的行为。Facebook表示,机器人搜索、好友请求、留言、发帖和发送消息,但这些操作的实际内容(如对话内容)并未被模拟。
哈曼说,尽管如此,WW的力量在于其大规模运营的能力。它允许Facebook运行数千次模拟,在不影响用户的情况下检查网站的各种微小变化,并从中发现新的行为模式。“我认为,来自大数据的统计力量仍未得到充分认识,”他表示。
这项工作更激动人心的一个方面是,WW有可能通过机器人的行动发现Facebook架构中的新弱点。机器人可以通过各种方式进行训练。有时,他们会得到如何行动的明确指示;有时,他们会被要求模仿现实生活中的行为;有时,他们只是被赋予一定的目标,让他们自己决定行动。正是在后一种情况下(一种被称为无监督机器学习的方法),可能会出现意想不到的行为,因为机器人会找到实现工程师没有预测到的目标的方法。
“目前,主要的重点是训练机器人模仿我们知道在平台上发生的事情。但在理论和实践中,机器人可以做我们以前从未见过的事情,“哈曼说。“这实际上是我们想要的,因为我们最终想要领先于不良行为,而不是不断追赶。”
哈曼说,该组织已经从机器人那里看到了一些意想不到的行为,但拒绝透露任何细节。他说他不想给骗子任何线索。