通过使用扩散模型并遵循贝叶斯定理,我们提出了真实性最大化扩散分类器(TMDC),该分类器不受数据漂移和敌对训练的影响,并且采用一个优化策略以提高其对更强大敌对攻击的鲁棒性,该方法在 CIFAR10 数据集上实现了最先进的性能。
Apr, 2024
通过推导证据下界(ELBO)来对高斯污染数据的扩散分类器进行泛化,将其与随机光滑化相结合,构建具有非常数 Lipschitz 性质的平滑分类器,实现了 80%+ 和 70%+ 的在 CIFAR-10 上扰动小于 0.25 和 0.5 的认证稳健性。
Feb, 2024
使用最先进的扩散模型生成额外的训练数据可以极大地提高敌对训练的鲁棒性,该方法同样可以明显提高确定性认证防御的鲁棒性,我们还提供了一些建议来扩展认证训练方法的鲁棒性。
May, 2023
通过分析扩散模型的基本属性,建立它们能够提高认证鲁棒性的条件,进而提出了新的 DensePure 方法。DensePure 包括多个通过扩散模型的反向过程(具有不同随机因素)的去噪运行,用于消除对抗性输入。最终预测结果是通过对推断标签的多数投票得出的,其设计受到了对反向样本的条件分布的理论分析的启发。
Nov, 2022
本文采用最新的扩散模型来改善对抗训练并且在 RobustBench 上取得了最先进的性能,并且使用生成数据即可实现,达到了 70.69%和 42.67%的鲁棒准确率。
Feb, 2023
基于扩散的对抗净化技术 MimicDiffusion 直接近似扩散模型的生成过程,以清晰图像作为输入,通过分析使用清晰图像和对抗样本时的引导项的差异,通过曼哈顿距离和两种引导策略净化对抗扰动,逼近清晰扩散模型,实验证明 MimicDiffusion 显著优于现有算法,在 CIFAR-10、CIFAR-100 和 ImageNet 三个数据集上的平均鲁棒准确率分别提高了 18.49%、13.23% 和 17.64%。
Dec, 2023
本文提出了 DiffPure, 使用扩散模型进行过去神经网络的抵御攻击,结果表明它在三个图像数据集上优于现有的对抗训练和对抗净化方法,通常差距很大。
May, 2022
本文介绍了一种在各种威胁模型下生成鲁棒分类器的方法,该方法利用了随机生成建模的最新进展,并利用条件分布采样。通过在被攻击的图像上添加高斯独立同分布噪声,然后进行预训练扩散过程,该方法表现出了可观的鲁棒性。该鲁棒性在 CIFAR-10 数据集上经过了广泛的实验验证,表明我们的方法在各种威胁模型下优于主要的防御方法。
Jul, 2022
通过多尺度平滑和扩散模型,本论文研究了平滑方法的准确性和认证鲁棒性之间的平衡,以实现对大规模模型的对抗性稳健性。
Oct, 2023
通过结合迁移学习、扰动模型和集成学习技术,我们提出了一种新颖和灵活的文本分类对抗防御方法 DiffuseDef,它在编码器和分类器之间引入扩散层作为去噪器,经过迭代去噪和集成生成鲁棒的文本表示。实验证明,DiffuseDef 在各种对抗性攻击中表现优异,实现了最先进的性能。
Jun, 2024