下载PDF摘要:针对不同应用程序的基于深度学习的方法已显示出易受敌意示例攻击。这些例子使得在安全关键任务中部署此类模型成为问题。深度神经网络作为反问题解算器的使用引起了包括CT和MRI在内的医学成像的极大兴奋,但最近也有类似的漏洞被证明适用于这些任务。指出对于这类逆问题的求解,不能像以往的工作那样在信号空间进行分析和研究,而应该在测量空间中分析和研究对手的影响。在本文中,我们提出修改端到端深度学习反问题求解器的训练策略,以提高鲁棒性。引入辅助网络生成敌意实例,并将其应用于Amin-Max公式来构建鲁棒的图像重建网络,从理论上证明了对于线性重建方案,最小-最大公式可以得到奇异值滤波正则解,从而抑制了由于测量矩阵中的OFILL条件而出现的敌意示例的影响。在理论上,对于线性重建方案,最小-最大公式可以得到奇异值滤波正则解,从而抑制了由于测量矩阵中的OFILL-条件化而出现的敌意示例的影响。我们发现,使用所提出的最小-最大学习方案的线性网络确实收敛到相同的解。此外,对于基于深度网络的非线性压缩感知(CS)重建,与其他方法相比,本文提出的方法在鲁棒性上有了显著的提高。我们通过在两个不同的数据集上对CS进行实验来补充理论,并评估了增加扰动对训练网络的影响。我们发现病态和良态测度矩阵的行为有质的不同。