探讨了采用图像转换策略,如降低位深、JPEG 压缩、总变量最小化和图像镶嵌等方法,以防御对图像分类系统的对抗性攻击。在 ImageNet 上的实验表明,总变量最小化和图像拼接是非常有效的防御方法,在网络对转换后的图片进行训练时表现尤为突出。最好的防御方法可以消除各种主要攻击方法的 60% 的强度灰盒和 90% 的强度黑盒攻击。
Oct, 2017
提出一种基于高级表示引导去噪者的防御方法(HGD),用于图像分类,并证明该方法在防御白盒和黑盒对抗攻击中表现更加稳健,并可适用于其他模型。
Dec, 2017
本研究旨在通过特征去噪的方式提高卷积神经网络在对抗攻击下的鲁棒性,实验结果表明这种方法对提高白盒和黑盒攻击下的分类准确率具有一定效果。
Dec, 2018
该论文提出了一种基于生成对抗网络(GAN)框架下的新防御机制来对抗黑盒攻击,在经验上表现良好并能与利用梯度下降的集成对抗训练和对抗训练等最先进的方法媲美。
May, 2019
深度学习领域的对抗攻击和防御是目前研究的活跃领域。本文针对防御方法进行分类,提出了不同的分类方法:通过增加特征向量的类内紧凑性和类间分隔性来提高对抗鲁棒性,减小或移除非鲁棒图像特征来提高对抗鲁棒性。通过这种重新构架话题的方式,提供了新的视角,深入探讨使网络变得更加强健的潜在因素,启发了更多的解决方案。此外,文献中有一些关于对抗防御成本问题和鲁棒性与准确性之间的权衡的论述,但我们提出的分类方法可以解决这些问题。本文提出了几项挑战,以此推动深度学习研究的进一步发展。
Oct, 2019
针对深度学习图像分类模型易受恶意注入噪声的对抗攻击,本文基于深度图像先验提出了一种新颖有效的重建防御框架,并且分析和明确地将模型决策过程纳入了防御范畴,通过倒推清晰的“干净样本”,最终构造出一幅可以被正确识别的图像,实验表明,在白盒、防御感知攻击下,该方法表现出优异的防御效果且重建图像的视觉质量较高。
Jul, 2021
本文介绍了一种在各种威胁模型下生成鲁棒分类器的方法,该方法利用了随机生成建模的最新进展,并利用条件分布采样。通过在被攻击的图像上添加高斯独立同分布噪声,然后进行预训练扩散过程,该方法表现出了可观的鲁棒性。该鲁棒性在CIFAR-10数据集上经过了广泛的实验验证,表明我们的方法在各种威胁模型下优于主要的防御方法。
Jul, 2022
本文研究表明通过对深度图像去噪模型的分析,研究者发现神经网络在面对对抗性攻击时具有脆弱性,但加入对抗性训练后可以提高鲁棒性。
Jun, 2023
通过分析正常和对抗攻击样本的深度神经网络表示之间的差异,研究了对抗攻击的鲁棒性和现有防御机制的普适性,并揭示了L2和Linfinity范数之间的显著差异。
Aug, 2023
深度学习模型对抗攻击和防御的鲁棒性的综合实验研究表明,模型复杂度和鲁棒性之间存在显著关系,并且应用防御策略可以显著减少攻击效果。
May, 2024