本文介绍了一种在各种威胁模型下生成鲁棒分类器的方法,该方法利用了随机生成建模的最新进展,并利用条件分布采样。通过在被攻击的图像上添加高斯独立同分布噪声,然后进行预训练扩散过程,该方法表现出了可观的鲁棒性。该鲁棒性在 CIFAR-10 数据集上经过了广泛的实验验证,表明我们的方法在各种威胁模型下优于主要的防御方法。
Jul, 2022
本文探讨了深度学习在遥感图像领域中的应用,尤其是在普适性对抗扰动方面的研究,并通过设计了一种新方法,可实现对遥感图像分类模型的攻击成功率高达 97.09%。
Feb, 2022
该研究是对遥感影像分类和物体检测模型的鲁棒性进行综合研究和基准评估,并提供了数据集资源,通过对不同分类器和探测器的严格评估,找到了关于敌对噪声制备和模型训练的深入认识,并为开发更具弹性和鲁棒性的模型提供指导。
Jun, 2023
本文提出了 DiffPure, 使用扩散模型进行过去神经网络的抵御攻击,结果表明它在三个图像数据集上优于现有的对抗训练和对抗净化方法,通常差距很大。
May, 2022
我们提出了一种具有逆向过程的鲁棒性指导方法,该方法独立于预训练的扩散模型,在不重新训练或微调扩散模型的情况下实现了对抗训练策略,保留了更多的语义内容,并减轻了扩散模型的准确性和鲁棒性之间的权衡,从而为基于扩散模型的对抗净化方法提供了对新攻击的高效适应能力。通过大量实验证实,我们的方法达到了最先进的结果,并展现了对不同攻击的泛化能力。
Mar, 2024
提出了一种新方法 AdvDiff,使用扩散模型生成无限制的对抗样本,并通过两种新的对抗引导技术在扩散模型的逆生成过程中进行对抗采样,实现了高质量、逼真的对抗样本生成。实验证明,AdvDiff 在攻击性能和生成质量方面优于基于 GAN 的方法。
Jul, 2023
通过发现深度神经网络模型仍能保持预测能力,即使有意删除其对人类视觉系统至关重要的稳健特征,我们识别出了一种名为 “自然去噪扩散攻击(NDD)” 的新型攻击。该攻击能够以低成本并且与模型无关、可转换为对抗性攻击,并利用扩散模型中的自然攻击能力。我们构建了一个大规模数据集 “自然去噪扩散攻击(NDDA)数据集”,来系统评估最新的文本 - 图像扩散模型的自然攻击能力的风险。我们通过回答 6 个研究问题来评估自然攻击能力,并通过用户研究证实了 NDD 攻击的有效性,发现 NDD 攻击能够实现 88% 的检测率,同时对 93% 的被试者具有隐蔽性。我们还发现,扩散模型嵌入的非稳健特征对于自然攻击能力起到了贡献作用。为了证明攻击的模型无关性和可转换性,我们对一辆自动驾驶汽车进行了 NDD 攻击,发现 73% 的物理打印的攻击能够被识别为停止标志。希望我们的研究和数据集能够帮助社区意识到扩散模型的风险,并促进更多关于强大深度神经网络模型的研究。
Aug, 2023
本文提出了一个 Perturbation Rectifying Network (PRN) 框架,通过学习实际和合成的图像通用扰动,和在 PRN 的输入和输出差异的离散余弦变换上独立训练的检测器,从而有效地保护深度学习网络免受任何图像的通用对抗性扰动的影响。
Nov, 2017
通过 DDPM 中的先验知识,将数据集扩散到偏差高斯分布 (BGD) 中,利用 RAEDiff 这种自我生成和自我恢复方法,生成并恢复用于深度神经网络 (DNN) 模型的可逆对抗扰动 (RAEs),实验证明 RAEDiff 可有效自动生成 DNN 模型的对抗扰动,并具有显著的自我恢复能力。
Oct, 2023
本文提出了一种新颖的净化方法,即导向扩散模型净化(GDMP),旨在帮助保护深度神经网络分类器免受对抗攻击的影响。在各种数据集上进行的广泛实验表明,所提出的 GDMP 将由对抗攻击引起的扰动降至浅层范围,从而显着提高了分类的正确性,并提高了 5%的鲁棒性。