理解对抗训练与噪声标签的交互作用
将对抗训练应用于ImageNet,并提出了如何将对抗训练成功扩展到大型模型和数据集的建议,发现对抗训练能增加对单步攻击方法的鲁棒性,单步攻击方法比多步攻击方法更难以传递,使其成为发动黑盒攻击的最佳选择。研究还揭示了“标签泄漏”效应,因为对抗样本构建过程使用真实标签,模型可以学习利用构建过程的规律,使经过对抗训练的模型在对抗示例上表现比正常示例更好。
Nov, 2016
本文提出了一种Bilateral Adversarial Training方法,使用一步定向攻击生成对抗样本来训练一个抗攻击性更强的神经网络,实验结果表明该方法对于对抗性攻击的鲁棒性有显著提升。
Nov, 2018
通过理论和实验,我们证明了半监督学习可以显著提高对抗性鲁棒性,实验结果表明在 CIFAR-10 上使用 500k 未标记图像,使用自我训练方法可以超过最先进的对抗性鲁棒的准确度。在 SVHN 上,使用模型自身的额外的训练集可以提高 4 至 10 个百分点,与使用额外标签的提高量相差不大。
May, 2019
研究表明,使用未标记的数据进行训练可以作为对于耐受对抗攻击模型的有竞争力的替代方法,具体而言是在简单的统计情况下,学习对抗鲁棒模型的样本复杂度与完全受监督的情况一致。此外,使用未标记数据的无监督对抗训练方法可以在 CIFAR-10 这样的标准数据集上,使得鲁棒准确性比仅仅使用 4K 监督样例有 21.7% 的提升,并且可以捕捉到相同数量标记样例的改进量中超过 95% 的部分。最后,使用来自未筛选的 8000 万张小图片数据集的额外未标记数据,在 CIFAR-10 上击败了当前已知最强的攻击,展示了我们的发现也适用于未筛选的现实情况,从而为提高对抗训练打开了新的途径。
May, 2019
通过研究对抗训练提高分类器鲁棒性的机制,本研究表明这些机制可以有效地通过简单的正则化方法(包括标签平滑和对数挤压)及高斯噪声注入来模仿,并且在不使用对抗性示例的情况下,我们能够达到强大的对抗性鲁棒性--通常超过对抗性训练所能达到的水平。
Oct, 2019
通过在对抗训练的过程中注入随机噪声标签,我们提出了一种新的训练方法NoiLIn,可以有效地解决模型鲁棒性和准确性之间的折中问题,并进一步提高了当今最先进的对抗训练方法的泛化能力。
May, 2021
该研究提出了一个确定深度学习模型标签更改是否合理的框架,并且定义了一个自适应的鲁棒性损失,使用导出的经验公式,开发了相应的数据增强框架和评估方法,证明了其对确定性标签下的一阶最近邻分类的维持一致性,并提供了实证评估结果。
Jun, 2021
鲁棒训练是为了提高深度神经网络对抗攻击的鲁棒性的最有效方法之一,但大多数鲁棒训练方法存在鲁棒过拟合的问题。本文从梯度范数角度首次找到了鲁棒过拟合与噪声标签过渡记忆之间的联系,并提出了一种自我导向的标签优化方法,它能提高标准准确度和鲁棒性,在多个数据集、攻击类型和架构上都得到了验证。此外,从信息理论的角度对我们的方法进行了分析,并指出了软标签对于鲁棒泛化的重要性。
Mar, 2024