利用稀疏表示来对抗对抗攻击
本文研究了基于深度神经网络的分类模型中稀疏性与鲁棒性之间的关系,并理论和实证分析表明,适当的模型稀疏化可以提高非线性 DNN 的鲁棒性,但过度稀疏化会使模型更难抵抗对抗性样本攻击。
Oct, 2018
该研究提出了一种基于稀疏编码的前端防御方法,该方法在 CIFAR-10 数据集上的实验结果表明,相较于其它对抗训练方法,该方法对 Linf、L2 和 L1 攻击的抵御效果更好。
Apr, 2021
通过稀疏性框架,本文研究了神经网络在计算机视觉任务中的敏感性以及与对抗性攻击的联系,揭示了对输入图像稀疏表示的攻击可以作为对神经网络的常见攻击表达,进一步解释了对抗性攻击的普遍性和可传递性。
Nov, 2023
通过信息论的背景将此问题转化为信息失真和鲁棒性的两个新度量,我们对分布式深度神经网络(DNNs)对抗行为的鲁棒性进行了严格分析,并通过考虑 6 种不同的 DNN 架构、6 种不同的分布式 DNN 方法和对 ImageNet-1K 数据集进行 10 种不同的对抗攻击的广泛实验分析来验证我们的理论发现。实验结果支持我们的理论发现,显示出压缩的隐含表示可以在最佳情况下将对抗性攻击的成功率降低 88%,平均降低 57%,与对输入空间的攻击相比。
Sep, 2023
本文提出了一种基于黑盒技术的新型对抗样本攻击方法,针对原始图像最小化 l0 距离。实验证明,该攻击方法优于或与现有技术相当。同时,我们可引入部件约束来提高分类器对稀疏和不可察觉的对抗性操纵的鲁棒性。
Sep, 2019
本研究分析了最新深度学习分类器对抗性扰动的稳定性,结论表明,基于稀疏表示模型的 CNNs 对噪声更为稳健,且基于阈值深度网络方法的稳健性更佳,并通过实验在三种数据集上验证结论。
May, 2018
本文针对深度学习模型的脆弱性与展开的攻击方式,研究了基于模型决策的稀疏攻击,提出了 SparseEvo 算法,并将其应用于卷积深度神经网络和视觉 Transformer 等模型上进行评估。SparseEvo 与之前的算法相比具有更高的攻击效率,但仍需要进一步探究,以增强模型安全性。
Jan, 2022
通过对局部化数据分布的理解,提出了一种基于几何形态的简单分类器 Box-NN,并在 MNIST 和 Fashion-MNIST 数据集上取得了对于稀疏攻击的认证稳健性方面的最新研究成果。
May, 2024
本文提出了一种基于几何学思想、利用决策边界低平滑性的攻击方法 SparseFool,能快速计算稀疏扰动,并且经过充分的评估,发现该方法能在高维数据中高效地尺度化,对视觉效果具有一定的可转移性,同时对稀疏加性扰动具有较好的鲁棒性,与对抗训练相比仅能有微小的改进。
Nov, 2018
我们提出了一种新的基于贪婪算法的两阶段畸变感知方法 GreedyFool,实验结果表明,相比于现有方法,我们只需要在相同的稀疏扰动设置下修改 3 倍少的像素,对于目标攻击而言,我们的方法比现有方法在相同像素预算下成功率高出 9.96%。
Oct, 2020