分组稀疏和可解释的对抗攻击
本文提出一种名为 StrAttack 的结构化攻击模型,通过滑动掩模来提取关键的空间结构并具有更好的可解释性,该模型能够实现与现有攻击方法相同水平的 Lp 范数失真的强组稀疏化。实验证明 StrAttack 在 MNIST、CIFAR-10 和 ImageNet 数据集上的攻击效果是有效的。
Aug, 2018
本文提出了一种基于黑盒技术的新型对抗样本攻击方法,针对原始图像最小化 l0 距离。实验证明,该攻击方法优于或与现有技术相当。同时,我们可引入部件约束来提高分类器对稀疏和不可察觉的对抗性操纵的鲁棒性。
Sep, 2019
我们提出了一种新的基于贪婪算法的两阶段畸变感知方法 GreedyFool,实验结果表明,相比于现有方法,我们只需要在相同的稀疏扰动设置下修改 3 倍少的像素,对于目标攻击而言,我们的方法比现有方法在相同像素预算下成功率高出 9.96%。
Oct, 2020
本文研究了基于深度神经网络的分类模型中稀疏性与鲁棒性之间的关系,并理论和实证分析表明,适当的模型稀疏化可以提高非线性 DNN 的鲁棒性,但过度稀疏化会使模型更难抵抗对抗性样本攻击。
Oct, 2018
本研究旨在通过使用谱规范化方法,为深度神经网络在对抗性环境下的训练提供一种有效的正则化策略,以解决其在输入微小的对抗性扰动下缺乏鲁棒性的问题。同时,我们将边界损失延伸到对抗性环境,并限制了多个梯度攻击方案下深度神经网络的泛化误差。
Nov, 2018
通过对简单梯度方案进行稀疏性及连接性调整,采用对抗训练作为一种内部处理方案,设计并展示了基于正则化的对抗训练方法对标准神经网络架构在基准图像数据集上的梯度图产生的影响。
Apr, 2024
本篇论文研究了针对深度神经网络的对抗攻击问题,表明对于稀疏输入数据表示,我们可以利用线性分类器的稀疏编码来有效减缓攻击,并将其扩展到深度神经网络中,发现使用局部线性模型可以有效降低 MNIST 数据集上的攻击成功率。
Mar, 2018
在这项研究中,我们提出了一个新的 l0 范数攻击方法,称为 sigma-zero,该方法利用了 l0 范数的一种特殊的可微近似来优化梯度,以及一个自适应的投影算子来动态调整损失最小化和扰动稀疏性之间的权衡。通过对 MNIST、CIFAR10 和 ImageNet 数据集进行广泛评估,包括稳健和非稳健模型,在不需要耗时的超参数调整的情况下,sigma-zero 发现了最小的 l0 范数对抗性示例,且在成功率、扰动大小和可扩展性方面优于所有其他竞争的稀疏攻击。
Feb, 2024
本文研究计算机视觉任务中对抗样本的影响,提出一种基于梯度的对抗攻击方法,通过将对抗扰动的方向和范数分离,能够在较少迭代次数(仅 100 次)内达到与当前最先进攻击方法在 L2 范数上相当的结果,进而达到对于白盒梯度攻击的鲁棒性。
Nov, 2018
通过截断幂迭代提供隐层雅可比矩阵的 $(p,q)$- 奇异向量的稀疏通用白盒对抗攻击,我们的方法在不同设置下使用 ImageNet 验证子集进行了分析,在仅破坏 5% 的像素并使用 256 个样本用于扰动拟合的情况下,取得了与稠密基线可比的超过 50% 欺骗率的结果。我们还展示了我们的算法允许更高的攻击强度而不影响人类解决任务的能力。此外,我们发现所构建的扰动在不同模型之间具有很高的可转移性,而不会显著降低欺骗率。我们的发现证明了最先进模型对稀疏攻击的脆弱性,并凸显了开发强大的机器学习系统的重要性。
Jan, 2024