论文介绍了如何通过随机光滑化技术来提高分类器对抗扰动的鲁棒性,使用该方法得到的ImageNet分类器在扰动范围小于0.5的情况下,具有49%的认证准确率,并且该方法在获得更高的认证准确率方面比其他方法更具优势。
Feb, 2019
本文提出使用对抗训练来提高基于随机平滑的分类器的效果,并设计一种适应平滑分类器的攻击方法,通过大量实验,得出这种方法在ImageNet和CIFAR-10上的性能显著胜过所有现有的可证明的L2-强健分类器,证明了这种方法是可靠的,且半监督学习和预训练能够进一步提高其效果。
Jun, 2019
研究了标签平滑作为改善监督深度学习模型对抗鲁棒性的手段,在多个数据集和模型上证明了标签平滑的普遍优越性以及提出了几种变化形式。
研究表明随机平滑是一种有效的提高深度神经网络分类器准确度和L2/高斯稳健性能的方法,并且在实验中也通过该方法显著地改善了已有的高斯稳健性能模型的准确性。
Jun, 2020
本文结合噪声标签和对抗训练,提出了使用梯度下降步数作为样本选择标准来纠正噪声标签,并且确认对抗训练具有强大的平滑效果的抗噪声标签的能力,从而提高自然的准确度,表明对抗训练作为一种通用的鲁棒性学习标准的优越性。
Feb, 2021
本文提出了一种通过优化辅助一致性规则损失来避免鲁棒过度拟合的有效正则化技术,在 Adversarial training 过程中使用数据扩增来强制攻击后的预测分布相似。实验结果表明,这种简单的方法可以显著提高各种 AT 方法的测试准确性,并对模型作出更具实际意义的泛化。
Mar, 2021
本文提出了一种称为 ALPS 的正则化方案,通过向每个真实输入样本添加扰动样本并给予对抗性标签来训练神经网络,以提高其泛化能力和对抗鲁棒性,实验表明 ALPS 具有先进的正则化性能和有效的对抗性训练。
May, 2021
通过在对抗训练的过程中注入随机噪声标签,我们提出了一种新的训练方法NoiLIn,可以有效地解决模型鲁棒性和准确性之间的折中问题,并进一步提高了当今最先进的对抗训练方法的泛化能力。
在这项研究中,从理论的角度分析了成功的对抗攻击周围的逻辑差异,并提出了一种新的原则,即Adversarial Logit Update (ALU),用于推断对抗样本的标签。基于ALU,引入了一种新的分类范式,利用预净化和后净化的逻辑差异来提高模型的对抗鲁棒性。经过广泛实验证明,所提出的解决方案在CIFAR-10、CIFAR-100和tiny-ImageNet数据集上相对于最先进的方法具有卓越的鲁棒性能。
Aug, 2023
鲁棒训练是为了提高深度神经网络对抗攻击的鲁棒性的最有效方法之一,但大多数鲁棒训练方法存在鲁棒过拟合的问题。本文从梯度范数角度首次找到了鲁棒过拟合与噪声标签过渡记忆之间的联系,并提出了一种自我导向的标签优化方法,它能提高标准准确度和鲁棒性,在多个数据集、攻击类型和架构上都得到了验证。此外,从信息理论的角度对我们的方法进行了分析,并指出了软标签对于鲁棒泛化的重要性。
Mar, 2024