通过提出一种名为MixTrain的新技术,本文旨在大大提高以往可检验证训练的效率,并维持高标准的可靠性,实现了在少量训练时间内,其鲁棒性达到95.2%,相较于现有的可检验证训练方法快3倍,而相对于对抗性训练快15倍,并且具有较好的扩展性。
Nov, 2018
本篇研究通过分类对抗性攻击和防御方法,提出三类半定界数理优化问题,即对抗(再)训练、正则化方法和认证防御,并调查了最近的研究成果和挑战以及展望未来的发展。
Jul, 2020
为了建立标准化的对抗性鲁棒性基准,我们考虑了图片分类任务,并引入了允许的模型限制,使用 AutoAttack 进行评估,同时提供80多种鲁棒模型的开源库,分析了鲁棒性对分布偏移、平滑性等性能的影响。
Oct, 2020
通过提出综合强健的(HR)训练程序,理论和实验证明了其在对抗错误损失方面具有SOTA性能,并克服了在敌对训练中普遍存在的过度拟合问题。
Mar, 2023
本文介绍了在安全关键应用中,对抗攻击对部署最先进的分类器构成重大威胁;总体上,经验证的防御方法虽然具有鲁棒性保证,但是实践中的对抗训练比较受欢迎。我们系统性地比较了这两种鲁棒性训练方法在多个计算机视觉任务中的标准错误和鲁棒错误,结果表明,在大多数任务和威胁模型下,采用凸松弛的认证训练比采用对抗训练更容易带来标准错误和鲁棒错误。此外,我们还探讨了认证和对抗训练之间的错误差距如何依赖于威胁模型和数据分布,并且除了扰动预算外,我们还确定了扰动集的形状和数据分布的隐式边缘等重要因素。本文在合成和图像数据集上进行了大量消融实验,证明我们的观点。
Jun, 2023
通过利用差分隐私和采样高斯机制,我们的模型对有限数量的有毒样本提供了确保每个测试实例预测不变的保证,从而提供了超过以前认证提供的两倍以上的对抗鲁棒性。
Aug, 2023
通过提出一种新的方法,同时追求高准确性和具有认证的概率鲁棒性,我们的实验显示该方法在多个模型和数据集上的认证率和准确性方面明显优于现有方法。
Sep, 2023
通过考虑认证模型的潜在输出空间,本研究提出了两种改进认证机制分析的独特方法,可以提供数据集独立和数据集相关的认证性能度量,从而使认证半径相对于现有技术能够提高一倍以上。经验证,我们的新方法能够在噪声尺度$σ = 1$下认证比以往多9%的样本,并且随着预测任务的难度增加,观察到更大的相对改进。
本文主要讨论了对抗样本的普遍性以及针对此类攻击的防御方法,并着重探讨了局部鲁棒性认证的实际应用和相关价值。
Oct, 2023
本研究针对现有对抗训练在大扰动下的实践效用不足的问题,提出了一种基于认证训练的新方法。通过实验证明,经过调优的认证训练算法能够有效防止单步攻击下的灾难性过拟合,并在适当的实验条件下缩小与多步基线之间的差距。研究最后提出了一种新型正则化方法,显著降低运行时间的同时实现类似效果。
Oct, 2024