人工智能合成的人脸与真实人脸无法区分,而且更可信

2022-02-15 20:07:10

William Press,计算机科学和综合生物学,德克萨斯大学,奥斯丁,奥斯丁,TX编辑;2021年11月11日收到;接受2021年12月20日

人工智能(AI)——合成文本、音频、图像和视频正在被武器化,用于非感官亲密图像、金融欺诈和虚假信息活动。我们对人工智能合成人脸照片真实性的评估表明,合成引擎已经穿过了神秘的山谷,能够创建出比真实人脸更难以区分、更可信的人脸。

人工智能(AI)——由音频、图像和视频合成(即所谓的深度假货)驱动的技术,已经使人们对之前独家使用的好莱坞级特效技术的使用民主化。从合成任何人声音中的语音(1)到合成虚构人物的图像(2),再到将一个人的身份与另一个人的身份交换,或改变他们在视频中所说的内容(3),人工智能合成的内容既有娱乐的力量,也有欺骗的力量。

生成性对抗网络(GAN)是合成内容的常用机制。GAN使两个神经网络——生成器和鉴别器——相互对立。要合成虚构人物的图像,生成器从随机像素阵列开始,迭代学习合成真实人脸。在每次迭代中,鉴别器学习将合成人脸与真实人脸库区分开来;如果合成的人脸可以与真实人脸区分开来,那么鉴别器会惩罚生成器。在多次迭代中,生成器学习合成越来越真实的人脸,直到鉴别器无法将其与真实人脸区分开来(参见图1,例如真实人脸和合成人脸)。

大众媒体已经写了很多关于深度造假的潜在威胁的文章,包括创造非感官的亲密形象(通常被误称为“复仇色情”)、小规模到大规模的欺诈,以及为本已危险的虚假信息活动添加喷气燃料。也许最有害的后果是,在任何图像或视频都可能被伪造的数字世界中,任何不方便或不受欢迎的记录的真实性都可能受到质疑。

尽管在开发自动技术以检测深度虚假内容方面取得了进展(例如,参考文献4)⇓– 6) ,目前的技术没有足够的效率或准确性来应对每日上传的洪流(7)。因此,网络内容的普通消费者必须努力区分真假。我们进行了一系列感性研究,以确定人类参与者是否能够区分最先进的合成人脸和真实人脸,以及这些人脸引发的信任程度。

在这项研究中,315名参与者将800张脸中的128张分类为真实或合成。图2A显示了参与者准确度的分布(蓝色条)。平均准确率为48.2%(95%CI[47.1%,49.2%),接近50%的偶然表现,无反应偏差:d′=− 0.09; β = 0.99. 两次重复测量二元logistic回归分析,一次用于真实人脸,另一次用于合成人脸,以检验刺激物性别和种族对准确性的影响。对于真实面孔,存在显著的性别×种族交互作用,χ2(3,N=315)=95.03,P<;0.001. 事后Bonferroni校正的比较显示,东亚男性面孔的平均准确率高于东亚女性面孔,而白人男性面孔的平均准确率高于白人女性面孔。对于合成面孔,也存在显著的性别×种族交互作用,χ2(3,N=315)=68.41,P<;0.001. 对于男性和女性合成人脸而言,白脸的分类最不准确,而男性白脸的分类精度低于女性白脸。我们假设白脸更难分类,因为它们在StyleGAN2训练数据集中的比例过高,因此更真实。

在这项研究中,219名新参与者通过训练和逐次试验反馈,从实验1中的800组面孔中,对128张面孔进行了分类。图2A显示了参与者准确度的分布(橙色条)。平均准确率略微提高到59.0%(95%可信区间[57.7%,60.4%),无反应偏差:d′=0.46;β = 0.99. 尽管提供了一次又一次的试验反馈,但随着时间的推移,准确率没有提高,第一组64张脸的平均准确率为59.3%(95%可信区间[57.8%,60.7%]),第二组64张脸的平均准确率为58.8%(95%可信区间[57.4%,60.3%])。进一步分析性别和种族对准确性的影响,重复了实验1的主要发现。这项分析再次表明,对于男性和女性合成面孔,白色面孔是最难分类的。

当了解渲染工件并给出反馈时,准确度有了可靠的提高;然而,总体表现仅略高于预期。随着时间的推移,缺乏改善表明反馈的影响是有限的,可能是因为一些合成人脸根本不包含可感知的伪影。

面部表情提供了丰富的信息来源,仅仅几毫秒的曝光时间就足以对个体特征(如可信度)做出隐含推断(8)。我们想知道合成面孔是否也会激活同样的可信度判断。如果不是,那么信任感可以帮助区分真实面孔和合成面孔。

在这项研究中,223名参与者对同一组800张脸中的128张脸的可信度进行了评分,评分范围为1(非常不可信)到7(非常可信)(9)。图2b所示为平均评分的分布(通过平均顺序评分,我们假设为线性评分量表)。真实面(蓝色条)的平均评级为4.48,低于合成面(橙色条)的评级为4.82。虽然只有7.7%的可信度更高,但这种差异是显著的[t(222)=14.6,P<;0.001,d=0.49]。虽然影响很小,但黑人面孔比南亚面孔更值得信任,但除此之外,在整个种族中没有影响。女性比男性更值得信赖,分别为4.94和4.36[t(222)=19.5,P<;0.001,d=0.82]。

图3显示了四个最值得信赖的面孔(图3,上图)和四个最不值得信赖的面孔(图3,下图)。前三个最值得信任的人脸是合成的(S),而后四个最不值得信任的人脸是真实的(R)。笑脸更有可能被评为值得信赖的面孔,但65.5%的真实面孔和58.8%的合成面孔都在微笑,因此单凭面部表情无法解释为什么合成面孔被评为更值得信赖。

合成生成的人脸不仅具有高度的照片真实感,而且几乎无法与真实人脸区分开来,而且被认为更可信。这种超写实主义与最近的研究结果一致(10,11)。这两项研究的种族和性别多样性与我们的研究不同,也没有像我们那样匹配真实和合成的面孔,以尽量减少无意中的线索。虽然白人男性面部高度逼真并不令人惊讶,因为这些面部在神经网络训练中占主导地位,但我们发现,合成面部的真实感跨越种族和性别。也许最有趣的是,我们发现合成人脸比真实人脸更可信。这可能是因为合成人脸看起来更像普通人脸,而普通人脸本身被认为更可信(12)。不管背后的原因是什么,人工合成的人脸已经出现在神秘山谷的另一边。这应该被认为是计算机图形学和视觉领域的成功。同时,方便访问(https://thispersondoesnotexist.com)这些高质量的虚假图像已经并将继续导致各种问题,包括更具说服力的在线虚假个人资料,以及合成音频和视频生成继续改善非感官亲密图像(13)、欺诈和虚假信息活动的问题,这些问题对个人、社会和个人都有严重影响,民主国家。

因此,我们鼓励开发这些技术来考虑相关风险是否大于它们的收益。如果是这样的话,那么我们仅仅因为技术的发展是可能的,就不鼓励技术的发展。如果没有,那么我们鼓励平行开发合理的保障措施,以帮助减轻由此产生的合成介质不可避免的危害。例如,保护措施可能包括将鲁棒水印纳入图像和视频合成网络,从而提供可靠识别的下游机制(14)。由于这项强大技术的使用民主化构成了最大的威胁,我们还鼓励重新考虑对公众采取的通常是自由放任的方式,以及不受限制地发布代码,以便任何人将其纳入任何应用程序。

在这个关键时刻,正如其他科学和工程领域所做的那样,我们鼓励图形和视觉界为合成媒体技术的创造和传播制定指导方针,其中包括研究人员、出版商和媒体分销商的道德准则。

我们选择了400张使用最先进样式2(2)合成的脸,确保性别(200名女性;200名男性)、估计年龄(确保从儿童到老年人的年龄范围)和种族(100名非裔美国人或黑人、100名白人、100名东亚人和100名南亚人)的多样性。为了减少额外的线索,我们只包括背景基本一致的图像,并且没有任何明显的渲染瑕疵。这种对明显工件的剔除使得感知任务更加困难。然而,由于合成过程非常简单,因此可以合理地假设,任何故意欺骗合成人脸的使用都不会包含明显的视觉伪影。

对于每个合成的人脸,我们从StyleGAN2学习阶段使用的基础人脸数据库中收集了一张匹配的真实人脸(性别、年龄、种族和整体外观)。使用标准卷积神经网络描述符(15)提取每个合成人脸的低维、有感知意义(16)表示。每个合成人脸的提取表示——4096-D实值向量v→ 在70000张真实人脸的数据集中,s-与所有其他人脸表示进行比较,以找到最相似的人脸。代表v的真实面孔→ r与v的欧氏距离最小→ s、 并满足我们的定性选择标准,被选为匹配面。与合成人脸一样,为了减少外部线索,我们只包括1)背景基本一致的图像,2)无障碍的人脸(例如脸前没有帽子或手),3)聚焦和高分辨率,以及4)衣服上没有明显的文字或标志。我们目测了多达50张最匹配的脸,选择了一张符合上述标准的脸,并且在整体面部位置、姿势、表情以及眼镜和珠宝的存在方面也匹配。图4所示为这些匹配的真实面和合成面的代表性示例。

对于实验1(基线),我们从亚马逊的机械土耳其人大师那里招募了315名参与者。每位参与者首先阅读一篇简短的介绍,解释研究的目的,并简要解释什么是合成脸。在开始之前,每个参与者都被告知,他们将获得5美元的时间报酬,如果他们的总体准确度在回答准确度的前20%,则额外获得5美元。参与者还被告知,他们将看到10个明显合成的脸的抓捕试验,这些脸有明显的渲染错误。在这些试验中,至少有九次未能做出正确反应,导致参与者没有获得报酬,他们的数据被排除在我们的研究之外。然后每个参与者看到128张图片,一次一张,并指定图片是真实的还是合成的。参与者有无限的时间回复,每次回复后都没有收到反馈。

在实验2(培训和反馈)中,我们又招募了219名土耳其机械大师(本研究参与者较少,因为我们排除了任何完成第一项研究的参与者)。每位参与者首先阅读一篇简短的介绍,解释研究的目的,并简要解释什么是合成脸。然后向参与者展示了一个简短的教程,描述了可用于识别合成人脸的特定渲染工件的示例。所有其他实验条件与实验1相同,只是参与者在每次回答后都会收到反馈。

在实验3(可信度)中,我们招募了223名土耳其机械大师。每位参与者首先阅读了一篇简短的介绍,说明该研究的目的是在1(非常不可信)到7(非常可信)的范围内评估一张脸的可信度。因为这里没有正确的答案,所以没有提供逐个试验的反馈。参与者还被告知,他们将看到10个面部抓捕试验,其中数字可信评级直接覆盖在面部。在这些试验中,至少有九次未能正确报告指定的评分,导致参与者没有获得报酬,他们的数据被排除在我们的研究之外。然后每个参与者看到128张图片,一次一张,并被要求对可信度进行评分。参与者有无限的时间做出回应。

所有实验都是在加利福尼亚大学、伯克利保护人类学科办公室(协议ID 2019-0712422)和兰开斯特大学科学技术研究伦理委员会(协议ID FST200 76)的批准下进行的。参与者在参与研究前给予充分知情同意。

图像已存放在GitHub(https://github.com/NVlabs/stylegan2和https://github.com/NVlabs/ffhq-dataset).匿名实验刺激和数据已存储在开放科学框架(https://osf.io/ru36d/).

我们感谢Erik Härkönen、Jaakko Lehtinen和David Luebke对人脸的巧妙合成。

作者贡献:S.J.N.和H.F.设计研究,执行研究,贡献新试剂/分析工具,分析数据,并撰写论文。