困扰于对抗防御?尝试扩散
本文提出了一种鲁棒扩散分类器 (Robust Diffusion Classifier, RDC),它是一个基于预训练扩散模型构建的生成分类器,可以更好地应对未知威胁并实现识别准确率的提高
May, 2023
通过推导证据下界(ELBO)来对高斯污染数据的扩散分类器进行泛化,将其与随机光滑化相结合,构建具有非常数 Lipschitz 性质的平滑分类器,实现了 80%+ 和 70%+ 的在 CIFAR-10 上扰动小于 0.25 和 0.5 的认证稳健性。
Feb, 2024
本文采用最新的扩散模型来改善对抗训练并且在 RobustBench 上取得了最先进的性能,并且使用生成数据即可实现,达到了 70.69%和 42.67%的鲁棒准确率。
Feb, 2023
基于扩散的对抗净化技术 MimicDiffusion 直接近似扩散模型的生成过程,以清晰图像作为输入,通过分析使用清晰图像和对抗样本时的引导项的差异,通过曼哈顿距离和两种引导策略净化对抗扰动,逼近清晰扩散模型,实验证明 MimicDiffusion 显著优于现有算法,在 CIFAR-10、CIFAR-100 和 ImageNet 三个数据集上的平均鲁棒准确率分别提高了 18.49%、13.23% 和 17.64%。
Dec, 2023
本文介绍了一种在各种威胁模型下生成鲁棒分类器的方法,该方法利用了随机生成建模的最新进展,并利用条件分布采样。通过在被攻击的图像上添加高斯独立同分布噪声,然后进行预训练扩散过程,该方法表现出了可观的鲁棒性。该鲁棒性在 CIFAR-10 数据集上经过了广泛的实验验证,表明我们的方法在各种威胁模型下优于主要的防御方法。
Jul, 2022
在这篇论文中,我们提出了一种统一框架 DiffAttack,用于对基于扩散的净化防御进行有效和高效的攻击,包括 DDPM 和基于分数的方法。我们通过在中间扩散步骤引入偏差重建损失来解决梯度消失 / 爆炸问题,提供了一种分段转发 - 反向传播算法,通过降低模型的稳健性减少了针对 CIFAR-10 和 ImageNet 的攻击的准确性。
Oct, 2023
使用最先进的扩散模型生成额外的训练数据可以极大地提高敌对训练的鲁棒性,该方法同样可以明显提高确定性认证防御的鲁棒性,我们还提供了一些建议来扩展认证训练方法的鲁棒性。
May, 2023
引入了欺骗扩散的概念 -- 训练生成 AI 模型以产生具有对抗性的图像。与传统的对抗性攻击算法不同,欺骗扩散模型可以创建任意数量的新的、被错误分类的图像,这些图像与训练或测试图像没有直接关联。欺骗扩散在规模上提供了对抗性训练数据以加强防御算法,包括在其他情况下难以找到的错误分类类型。在我们的实验中,我们还研究了在部分受攻击数据集上进行训练的效果。这突出了生成扩散模型的一种新型漏洞:如果攻击者能够秘密地污染部分训练数据,那么生成的扩散模型将产生相似比例的误导输出。
Jun, 2024