Deepfakes现在在Facebook上不是一个大问题,但该公司继续资助研究该技术,以防止未来的威胁。其最新作品是与密歇根州立大学(MSU)的学者合作,其中组合团队创建了反向工程师Deew的方法:分析了AI生成的图像,揭示了创建的机器学习模型的识别特征。
这项工作很有用,因为它可以帮助Facebook追踪向下传播Deepfakes的糟糕演员在各种社交网络上。这种内容可能包括错误信息,也可以包括非同意的色情制品 - 一种令人沮丧的普通应用。现在,这项工作仍在研究阶段,并没有准备好部署。
在此领域的先前研究已经能够确定哪种已知的AI模型产生了深度的模型,但是由MSU的Vishal Asnani领导的这项工作进一步识别未知模型的架构性状进一步进一步。这些特征,称为HyperParameters,必须在每个机器学习模型中调整,如发动机中的零件。总的来说,它们在成品图像上留下一个独特的指纹,然后可以用于识别其源。
识别未知模型的特征很重要,Facebook Research Lead Tal Hassner告诉边缘,因为DeepFake软件非常容易定制。如果调查人员试图追踪他们的活动,这可能允许糟糕的演员掩盖他们的曲目。
“让我们假设一个糟糕的演员正在生成大量不同的Deepfakes,并将它们上传到不同的平台上的不同用户,”哈斯纳说。 “如果这是一个新的AI模型,没有人见过以前,那么我们在过去很少有人说过。现在,我们能说,'看,上传的图片,上传的图片,上传的图片,所有这些都来自同一模特。“如果我们能够抓住笔记本电脑或计算机[习惯生成内容],我们将能说,'这是罪魁祸首。'“
Hassner将工作与用于识别用于通过查找所得图像中的模式来拍摄图片的法医技术的工作。 “并非每个人都可以创建自己的相机,”他说。 “虽然任何具有合理经验和标准计算机的人都可以烹饪自己的模型,以产生深蓝。”
由此产生的算法指纹不仅可以是生成模型的特征,而且还可以识别创建了哪个已知模型,并且在第一位置是图像是否是DeepFake。 “在标准基准上,我们获得最先进的结果,”哈兹纳说。
但重要的是要注意,即使这些最先进的结果也远非可靠。 当Facebook去年举行了DeepFake探测竞赛时,获胜算法只能检测到AI-Sinipute视频65.18%的时间。 涉及的研究人员说,使用算法发现德国队仍然是一个“未解决的问题”。 部分原因是,生成Ai领域非常活跃。 新技术每天发布,任何过滤器几乎都不可能跟上。 涉及该字段的人敏锐地意识到这种动态,并且当被问及发布这种新的指纹识别算法时会导致这些方法未被发现的研究,哈斯纳同意。 “我会期待所以,”他说。 “这是一只猫和鼠标游戏,它仍然是猫和鼠标游戏。”