本文提出了一种新的基于 $l_p$-norms 的白盒对抗攻击方法,通过最小化扰动的大小来改变特定输入的类别,这个方法具有几何直观性,是一种性能优越的攻击方法,比专门针对一个 $l_p$-norm 的攻击方法具有更好的鲁棒性,并且可以解决梯度掩盖的问题。
Jul, 2019
研究对抗性漏洞的影响因素,得出标准 PGD 攻击的成功率呈单调递增的函数关系,表明对抗样本在高维空间局部线性模型上很普遍。
Mar, 2023
本文提出了一种基于黑盒技术的新型对抗样本攻击方法,针对原始图像最小化 l0 距离。实验证明,该攻击方法优于或与现有技术相当。同时,我们可引入部件约束来提高分类器对稀疏和不可察觉的对抗性操纵的鲁棒性。
Sep, 2019
通过对局部化数据分布的理解,提出了一种基于几何形态的简单分类器 Box-NN,并在 MNIST 和 Fashion-MNIST 数据集上取得了对于稀疏攻击的认证稳健性方面的最新研究成果。
May, 2024
本文介绍一种新的攻击模型,即局部不确定性攻击,用于制造确定性和随机分类器的对抗样本。与其他攻击方式不同,这种攻击是局限于分类器不确定性区域进行的, 这样可以制造出更难以察觉的对抗样本。
Jun, 2021
本论文研究了一种泛用的对抗训练算法的泛化性能,并考虑了线性回归模型和两层神经网络(使用平方损失)在低维和高维情况下的表现,其中,我们发现数据内插会防止对抗性鲁棒估算器的一致性,因此,我们引入 L1 惩罚,在高维对抗学习中,证明了它可以导致一致的对抗性鲁棒估计。
Aug, 2020
本论文提出了一种不需要原始训练数据即可计算 UAPs 的数据无关对抗性检测框架,并对各种文本分类任务进行了实验证明其具有竞争性的检测性能,且与正常推断相当。
Jun, 2023
本研究通过使用交叉熵符号等简单方法,生成有效的区域性对抗扰动,这些局部攻击可能比非本地对抗例子需要更少的扰动,从而潜在地破坏了在 $L_p$ 范数下具有稳健性的防御。
Jul, 2020
本文研究深度神经网络中的对抗样本问题,提出了一种新的扰动方法:利用空间变换生成对抗性样本以增强样本的感知逼真度,证明这种方法在现有防御系统方面更加具有挑战性,并通过可视化技术研究神经网络对不同类型对抗样本的感知。
Jan, 2018
研究了 $l_0$ 范数约束下的稀疏对抗扰动,并提出了一种名为 sparse-PGD 的白盒 PGD 攻击方法来有效高效地生成这种扰动。此外,将 sparse-PGD 与黑盒攻击相结合,全面可靠地评估模型对 $l_0$ 约束下的对抗扰动的鲁棒性,并且 sparse-PGD 的高效性使得我们能够进行对抗性训练以构建对稀疏扰动具有鲁棒性的模型。大量实验证明,我们提出的攻击算法在不同场景下表现出很强的性能。更重要的是,与其他鲁棒模型相比,我们的对抗训练模型展示了对各种稀疏攻击的最新鲁棒性。代码可在此 https URL 找到。