ADBM:用于可靠对抗性净化的对抗扩散桥接模型
本文提出了一种新颖的净化方法,即导向扩散模型净化(GDMP),旨在帮助保护深度神经网络分类器免受对抗攻击的影响。在各种数据集上进行的广泛实验表明,所提出的GDMP将由对抗攻击引起的扰动降至浅层范围,从而显着提高了分类的正确性,并提高了5%的鲁棒性。
May, 2022
对扩散净化方法进行了系统性探索,提出了一种新的扩散净化算法 Purify++,是目前对多种对抗攻击具有最先进防御效果的方法。
Oct, 2023
在这篇论文中,我们提出了一种统一框架DiffAttack,用于对基于扩散的净化防御进行有效和高效的攻击,包括DDPM和基于分数的方法。我们通过在中间扩散步骤引入偏差重建损失来解决梯度消失/爆炸问题,提供了一种分段转发-反向传播算法,通过降低模型的稳健性减少了针对CIFAR-10和ImageNet的攻击的准确性。
Oct, 2023
基于扩散的对抗净化技术MimicDiffusion直接近似扩散模型的生成过程,以清晰图像作为输入,通过分析使用清晰图像和对抗样本时的引导项的差异,通过曼哈顿距离和两种引导策略净化对抗扰动,逼近清晰扩散模型,实验证明MimicDiffusion显著优于现有算法,在CIFAR-10、CIFAR-100和ImageNet三个数据集上的平均鲁棒准确率分别提高了18.49%、13.23%和17.64%。
Dec, 2023
我们提出了一种具有逆向过程的鲁棒性指导方法,该方法独立于预训练的扩散模型,在不重新训练或微调扩散模型的情况下实现了对抗训练策略,保留了更多的语义内容,并减轻了扩散模型的准确性和鲁棒性之间的权衡,从而为基于扩散模型的对抗净化方法提供了对新攻击的高效适应能力。通过大量实验证实,我们的方法达到了最先进的结果,并展现了对不同攻击的泛化能力。
Mar, 2024
证明扩散模型在网络入侵检测中净化对抗样本方面的有效性,通过对扩散参数的全面分析,识别最佳配置以最大限度地提高对抗鲁棒性而对正常性能的影响最小。重要的是,该研究揭示了扩散噪声和扩散步骤之间的关系,对该领域具有重要贡献。实验在两个数据集上进行,并针对5种对抗攻击进行了测试。实现代码公开可用。
Jun, 2024
本研究解决了神经网络在图像分类等应用中易受微小对抗噪声影响的问题,提出了一种名为单步控制净化(OSCP)的新方法,该方法在扩散模型中仅需一次神经函数评估便可实现净化,具有高效的计算性能。我们的实验结果表明,OSCP在ImageNet上实现了74.19%的防御成功率,仅需0.1秒进行每次净化,且无需完全微调,通过所提出的高斯对抗噪声蒸馏(GAND)框架,使得自然与对抗流形之间的动态更为和谐,具有重要的应用潜力。
Aug, 2024
本研究针对神经网络在面对细微对抗噪声时的脆弱性问题,提出了一种名为OSCP的一步控制净化模型,该模型在扩散模型中仅需一次神经功能评估即可实现快速净化。通过使用潜在一致性模型和ControlNet,我们的OSCP在ImageNet上实现了74.19%的防御成功率,且每次净化仅需0.1秒,同时还提出了一种新的一致性蒸馏框架GAND,有效地解决了一致性蒸馏与对抗扰动之间的根本不协调问题。
Aug, 2024
本研究解决了扩散基础净化方法在处理对抗性示例中的固有净化误差问题。提出的LoRID方法通过多阶段净化过程和Tucker分解,实现在高噪声条件下有效去除对抗性噪声。研究表明,LoRID显著提高了在CIFAR-10/100、CelebA-HQ和ImageNet数据集中的对抗性攻击鲁棒性。
Sep, 2024