该论文提出了一个几何框架以分析对抗性样本的高维几何,强调了余维数的重要性,并介绍了带有 Voronoi 约束的对抗性训练,证明它比基于球形的对抗性训练在 MNIST 数据上更具鲁棒性。
May, 2019
本文通过理论和实验证据表明,对于指定的输入,规定近似双射映射 $f:R^n →R^m(n≠m)$ 模型的产生了近似不连续的对抗性例子,并且这种不连续性是维数的拓扑不变性导致的。
Apr, 2023
研究表明,计算机视觉模型容易受到输入微小对抗扰动攻击,而该现象是由数据流形的高维几何性质引起的,结果表明神经网络的易受小型对抗性扰动攻击是测试误差的逻辑结果。
Jan, 2018
本文提出了一种使用生成敌对网络在语义空间中搜索自然和易读的对抗性样本的框架,以验证黑盒子分类器的鲁棒性,并证明该方法可在图像分类,文本蕴含和机器翻译等广泛应用中有效。
Oct, 2017
本文介绍了一种用于生成自然语言对抗性样本的几何灵感攻击方法,该攻击通过迭代逼近深度神经网络(DNNs)的决策边界生成对抗性样本,并实验证明该攻击方法可以快速欺骗自然语言模型,并表明对抗训练可以提高模型对我们的攻击方法的鲁棒性。
Oct, 2020
本文提出一种有效的黑盒攻击算法,用于生成三维深度神经网络的对抗样例,该算法利用网络决策边界以及小曲率特性来生成具有小 l_p 范数的有效迭代算法,该算法获得了比现有算法更好的结果。
Mar, 2020
提出了一种有监督的语义转换生成模型,用于生成具有真实和合法语义的对抗性样本,实现了从非对抗性样本到对抗性样本的合法过渡。实验结果表明,生成的对抗性样本不仅具有更好的视觉质量,还实现了更高的攻击可迁移性和更有效的模型漏洞解释。
Feb, 2024
本文研究通过引入几何度量法来检测深度学习模型中的对抗样本,并以 MNIST 数据集和两个医学数据集为例,对密度和覆盖度两种几何度量法进行了实证研究,结果表明这两种度量法能够检测到对抗样本并能在机器学习系统中使用来监控可能的对抗性例子或相关病理因素,为进一步研究机器学习系统的安全提供了基础。
Jun, 2022
本文提出测量对抗样本空间维度的新方法,发现对抗性子空间在很大的维度上相互重叠并且共享在不同模型之间,通过探究模型决策边界的相似性和转移攻击的局限性,本文表明可能存在抵抗传输攻击的防御方法。
Apr, 2017
提出了一个新的研究框架来研究对抗性示例,通过测量插值点与决策边界的角度,显示出对抗性示例在 MNIST 和 ImageNet 数据集的大神经网络中具有比自然示例更低的持久性,并通过开发流形对齐梯度度量与鲁棒性的联系,证明了加入这个度量时可以增强的鲁棒性。
Apr, 2024