本篇论文研究了针对深度神经网络的对抗攻击问题,表明对于稀疏输入数据表示,我们可以利用线性分类器的稀疏编码来有效减缓攻击,并将其扩展到深度神经网络中,发现使用局部线性模型可以有效降低 MNIST 数据集上的攻击成功率。
Mar, 2018
通过截断幂迭代提供隐层雅可比矩阵的 $(p,q)$- 奇异向量的稀疏通用白盒对抗攻击,我们的方法在不同设置下使用 ImageNet 验证子集进行了分析,在仅破坏 5% 的像素并使用 256 个样本用于扰动拟合的情况下,取得了与稠密基线可比的超过 50% 欺骗率的结果。我们还展示了我们的算法允许更高的攻击强度而不影响人类解决任务的能力。此外,我们发现所构建的扰动在不同模型之间具有很高的可转移性,而不会显著降低欺骗率。我们的发现证明了最先进模型对稀疏攻击的脆弱性,并凸显了开发强大的机器学习系统的重要性。
Jan, 2024
本文提出了一种基于黑盒技术的新型对抗样本攻击方法,针对原始图像最小化 l0 距离。实验证明,该攻击方法优于或与现有技术相当。同时,我们可引入部件约束来提高分类器对稀疏和不可察觉的对抗性操纵的鲁棒性。
Sep, 2019
本文研究了基于深度神经网络的分类模型中稀疏性与鲁棒性之间的关系,并理论和实证分析表明,适当的模型稀疏化可以提高非线性 DNN 的鲁棒性,但过度稀疏化会使模型更难抵抗对抗性样本攻击。
Oct, 2018
本研究分析了最新深度学习分类器对抗性扰动的稳定性,结论表明,基于稀疏表示模型的 CNNs 对噪声更为稳健,且基于阈值深度网络方法的稳健性更佳,并通过实验在三种数据集上验证结论。
May, 2018
近期的模型反演攻击算法允许攻击者通过多次查询神经网络并检查其输出来重建网络的私密训练数据。本文开发了一种新型网络架构,利用稀疏编码层来提高对此类攻击的抵御能力。相比于多种最先进的防御方法,我们的稀疏编码网络架构在保持相当或更高分类准确性的同时,能够将最先进的训练数据重构质量降低 1.1 至 18.3 倍。此性能优势适用于从 CelebA 脸部到医学图像和 CIFAR-10 的 5 个数据集,以及包括 Plug-&-Play 攻击在内的各种最先进的基于 SGD 和 GAN 的反演攻击。我们提供了一个可用于集群的 PyTorch 代码库,以推动研究并标准化防御评估。
Mar, 2024
该研究提出了一种基于稀疏编码的前端防御方法,该方法在 CIFAR-10 数据集上的实验结果表明,相较于其它对抗训练方法,该方法对 Linf、L2 和 L1 攻击的抵御效果更好。
Apr, 2021
提出了一种针对对抗攻击的防御方法,基于卷积稀疏编码构建了一个分层的低维准自然图像空间,并引入新颖的稀疏转换层(STL),在输入图像和神经网络的第一层之间高效地投影图像到我们的准自然图像空间中,实现了在对抗环境中的最佳表现。
Nov, 2018
本文提出一种名为 StrAttack 的结构化攻击模型,通过滑动掩模来提取关键的空间结构并具有更好的可解释性,该模型能够实现与现有攻击方法相同水平的 Lp 范数失真的强组稀疏化。实验证明 StrAttack 在 MNIST、CIFAR-10 和 ImageNet 数据集上的攻击效果是有效的。
Aug, 2018
本文使用一种名为对抗性样本的设计,产生一个可以同时攻击深度神经网络的通用攻击,包括目标攻击,通用攻击以及可转移攻击。
Aug, 2019