通过更多无标签数据来提升对抗鲁棒泛化能力
研究表明,使用未标记的数据进行训练可以作为对于耐受对抗攻击模型的有竞争力的替代方法,具体而言是在简单的统计情况下,学习对抗鲁棒模型的样本复杂度与完全受监督的情况一致。此外,使用未标记数据的无监督对抗训练方法可以在 CIFAR-10 这样的标准数据集上,使得鲁棒准确性比仅仅使用 4K 监督样例有 21.7% 的提升,并且可以捕捉到相同数量标记样例的改进量中超过 95% 的部分。最后,使用来自未筛选的 8000 万张小图片数据集的额外未标记数据,在 CIFAR-10 上击败了当前已知最强的攻击,展示了我们的发现也适用于未筛选的现实情况,从而为提高对抗训练打开了新的途径。
May, 2019
本文研究在简单自然数据模型中,对抗鲁棒学习的样本复杂度可以显著大于标准学习,这个差距是信息理论的,且与训练算法或模型家族无关。作者做了一些实验来证实这个结果。我们可以假设训练鲁棒分类器的困难,至少部分来自这种固有的更大的样本复杂度。
Apr, 2018
针对现代机器学习模型易受到对人类不可察觉的攻击的问题,采用对抗培训来学习鲁棒模型的代价是在未被扰动的测试集上存在更高的泛化误差,此研究证明更多的数据可能会增加鲁棒分类器与标准分类器泛化误差的差距并提出了理论结果以判定何时和何种情况下添加更多数据才能缩小这种差距,此现象也出现在线性回归模型中。
Feb, 2020
该研究提出了一个确定深度学习模型标签更改是否合理的框架,并且定义了一个自适应的鲁棒性损失,使用导出的经验公式,开发了相应的数据增强框架和评估方法,证明了其对确定性标签下的一阶最近邻分类的维持一致性,并提供了实证评估结果。
Jun, 2021
本文研究对抗训练在分类问题的应用,发现更多的训练数据可能会损害对抗准确性模型的泛化能力,特别在存在强对抗时更加明显,给出了针对线性和二维分类问题的实验支持。
Feb, 2020
通过理论和实验,我们证明了半监督学习可以显著提高对抗性鲁棒性,实验结果表明在 CIFAR-10 上使用 500k 未标记图像,使用自我训练方法可以超过最先进的对抗性鲁棒的准确度。在 SVHN 上,使用模型自身的额外的训练集可以提高 4 至 10 个百分点,与使用额外标签的提高量相差不大。
May, 2019
最近的研究表明,深度神经网络对于对抗样本存在漏洞。已经提出了许多防御方法以提高模型的鲁棒性,其中对抗训练最为成功。本文重新审视了鲁棒过拟合现象。我们认为,对抗训练过程中产生的自信模型可能是潜在的原因,通过实证观察支持,具有更好鲁棒泛化能力的模型对于对抗样本的预测标签往往具有更均匀的分布。基于对抗确立的定义,我们在对抗训练框架中引入了一个额外的梯度步骤,以寻找能够生成置信度较低的对抗扰动输入的模型,进一步提高鲁棒泛化。我们的方法具有普适性,可以轻松与其他对抗训练方法的变体结合。在图像基准实验上进行的大量实验证明了我们的方法有效地减轻了鲁棒过拟合,并能够产生鲁棒性持续提升的模型。
Oct, 2023
文章提出了从基于扰动的对抗鲁棒性转向基于模型的鲁棒深度学习的新范式,并探讨了使用深度生成模型来学习自然变化模型并进一步提高深度学习对于自然变化的鲁棒性的三种新型算法,实验表明,该方法在自然情况下能够超越标准深度学习算法和基于范数的鲁棒深度学习算法。
May, 2020
关键词:对抗鲁棒性、半监督对抗训练、有标签数据稀缺、正则化项、知识蒸馏。摘要:本文研究了对抗鲁棒性的半监督对抗训练,探究了稀缺有标签数据情况下的两个鲁棒风险上界,并提出了正则化项以应用于无标签数据,最后通过半监督教师模型的知识蒸馏结合提出的正则化项进行半监督对抗训练算法。实验证明,相较于现有算法,我们提出的算法在性能方面取得了显著的提升,并且即使有限的有标签数据量,我们的算法仍能与使用所有标签数据的监督对抗训练算法相媲美,无论是在标准准确率还是在鲁棒准确率上,比如我们的算法只使用 8%的有标签数据时,在 CIFAR-10 数据集上与监督对抗训练算法相比表现接近。
Aug, 2023