下载 PDF 摘要:传统的显着图突出了神经网络预测高度敏感的输入特征。我们对显着性采取不同的方法,其中我们识别和分析网络参数,而不是导致错误决策的输入。我们发现导致相似参数发生故障的样本在语义上是相似的。我们还表明,为错误分类的样本修剪最显着的参数通常会改善模型行为。此外,在单个样本上微调少数最显着的参数会导致对由于类似原因被错误分类的其他样本进行错误校正。基于我们的参数显着性方法,我们还引入了一种输入空间显着性技术,该技术揭示了图像特征如何导致特定网络组件发生故障。此外,我们在数据集和案例研究级别上严格验证了显着性图的意义。书目工具 代码和数据相关论文 关于 arXivLabs arXivLabs 是一个框架,允许合作者直接在我们的网站上开发和共享新的 arXiv 功能。与 arXivLabs 合作的个人和组织都接受并接受了我们的开放、社区、卓越和用户数据隐私价值观。 arXiv 致力于这些价值观,并且只与遵守这些价值观的合作伙伴合作。有一个可以为 arXiv 社区增加价值的项目的想法吗?了解有关 arXivLabs 以及如何参与的更多信息。