图像分类器的鲁棒性和不变性属性
本文通过理论分析和几何方法,探究深度神经网络在面对普适性扰动时的稳健性,并揭示了决策边界几何形态(平坦或曲线)与稳健性之间的关系,证明了在正曲率方向上存在共享决策边界的情况下,存在极小的普适性扰动。
May, 2017
本论文分析了深层网络的一个有趣现象,即它们对于对抗性扰动的不稳定性,并提出了一个分析分类器鲁棒性的理论框架,并且为对抗性扰动的鲁棒性建立了一个上限。具体而言,我们建立了分类器对于对抗性扰动的鲁棒性的一个通用上限并用一些线性和二次分类器的例子说明了所获得的上限。我们的结果表明,在涉及小区分能力的任务中,所有选定的分类器将不会对于对抗性扰动产生鲁棒性,即使达到了较高的准确率。
Feb, 2015
通过分析正常和对抗攻击样本的深度神经网络表示之间的差异,研究了对抗攻击的鲁棒性和现有防御机制的普适性,并揭示了 L2 和 Linfinity 范数之间的显著差异。
Aug, 2023
深度神经网络对任务无关的改变过于敏感,对任务相关的改变过于不敏感,导致广泛的输入空间易受到对抗攻击,传统的交叉熵损失函数存在局限性,本文提出了基于信息论分析的目标函数以克服这些问题。
Nov, 2018
本研究通过使用多个强健度和成功率等措施,在 306 个模型对之间全面测试了 18 个 ImageNet 模型,并揭示了若干新的见解:(1)在分类错误的对数下,经验 L2 和 L∞扭曲度量呈线性比例律;(2)模型架构比模型尺寸更重要;(3)对于相似的网络架构,略微增加网络深度可在 L∞扭曲度上提高强健性;(4)存在具有高度敌对可转性的模型,而从一个模型制造的大多数敌对示例仅可以在同一家族内转移。
Aug, 2018
针对深度神经网络易受对抗性攻击的问题,本文提出了一种基于特征重构的防御方法,具体来说,通过将每个类别的特征强制限制在一个凸多面体内,使得网络学习到的决策区域更加独特和远离各个类别的边界,提高了网络的鲁棒性,同时在干净图像的分类性能上不会退化。
Apr, 2019
通过对高维度输入数据的实践系统进行观察,我们展示了对于那些容易构建的对抗性攻击及其对大多数模型的威胁性,以及随机扰动的鲁棒性同时易受影响的基本特性,证实了这一现象。然而,令人惊讶的是,即使对于分类器决策边界与训练和测试数据之间只有很小的边距,也很难通过随机取样的扰动来检测到对抗性示例,因此需要更严格的对抗性训练。
Sep, 2023
本研究在 MNIST 和 ImageNet 数据集上探究了浅层和深度分类器对抗性图像的像素空间,并证明了在相同任务中与深度卷积神经网络相比,浅层分类器的抗干扰性更强,同时也提供了新的展示现象及其高可变性的可视化。
Oct, 2015