关于强健的过拟合:对抗训练引起的分布问题
对深度神经网络(DNN)进行逆向训练以提高其对敌对扰动的鲁棒性是一种被广泛采用的方法。然而,经验观察到,对于超参数化网络的逆向训练往往存在 “鲁棒过拟合” 问题:它可以实现接近于零的逆向训练错误,但鲁棒性的泛化性能不佳。本文从逼近的角度对逆向训练中过拟合的 DNN 的泛化能力进行了理论研究,得出了三个主要结果:i)对于分类问题,我们通过构造证明在超参数化的 DNNs 上存在无穷多的逆向训练分类器,可以获得任意小的逆向训练错误(过拟合),同时在数据质量、明显分离和扰动水平等方面满足一定条件时可以获得良好的鲁棒泛化误差。ii)只要目标函数足够平滑,线性超参数化(即参数数量略大于样本大小)就足以确保这种存在性。iii)对于回归问题,我们的结果证明,在逆向训练中存在无穷多的超参数化过拟合 DNNs,可以实现几乎最优的标准泛化误差收敛速率。总体来说,我们的分析指出,鲁棒过拟合是可以避免的,但所需的模型容量将取决于目标函数的平滑程度,而鲁棒泛化差距是不可避免的。我们希望我们的分析能够更好地从逼近的角度理解 DNNs 的鲁棒性的数学基础。
Jan, 2024
最近的研究表明,深度神经网络对于对抗样本存在漏洞。已经提出了许多防御方法以提高模型的鲁棒性,其中对抗训练最为成功。本文重新审视了鲁棒过拟合现象。我们认为,对抗训练过程中产生的自信模型可能是潜在的原因,通过实证观察支持,具有更好鲁棒泛化能力的模型对于对抗样本的预测标签往往具有更均匀的分布。基于对抗确立的定义,我们在对抗训练框架中引入了一个额外的梯度步骤,以寻找能够生成置信度较低的对抗扰动输入的模型,进一步提高鲁棒泛化。我们的方法具有普适性,可以轻松与其他对抗训练方法的变体结合。在图像基准实验上进行的大量实验证明了我们的方法有效地减轻了鲁棒过拟合,并能够产生鲁棒性持续提升的模型。
Oct, 2023
研究深度学习领域中常用的过参数化网络和尽可能训练的现象,发现对于对抗训练的深度网络来说过拟合确实会对其稳健性产生很大的负面影响,因此建议使用提前停止等方法来取得相似的性能提升。
Feb, 2020
本文研究对抗训练在分类问题的应用,发现更多的训练数据可能会损害对抗准确性模型的泛化能力,特别在存在强对抗时更加明显,给出了针对线性和二维分类问题的实验支持。
Feb, 2020
本文研究在简单自然数据模型中,对抗鲁棒学习的样本复杂度可以显著大于标准学习,这个差距是信息理论的,且与训练算法或模型家族无关。作者做了一些实验来证实这个结果。我们可以假设训练鲁棒分类器的困难,至少部分来自这种固有的更大的样本复杂度。
Apr, 2018
本文研究了对抗训练在提高鲁棒精度(对抗方面)的同时又有可能降低标准精度(没有对抗方面)。通过构造凸学习问题,我们发现鲁棒精度和泛化能力之间存在基本的紧张关系,而利用未标记的数据进行鲁棒自我训练可以消除这种关系。
Jun, 2019
针对现代机器学习模型易受到对人类不可察觉的攻击的问题,采用对抗培训来学习鲁棒模型的代价是在未被扰动的测试集上存在更高的泛化误差,此研究证明更多的数据可能会增加鲁棒分类器与标准分类器泛化误差的差距并提出了理论结果以判定何时和何种情况下添加更多数据才能缩小这种差距,此现象也出现在线性回归模型中。
Feb, 2020
本文利用 Wasserstein 距离定义了 out-of-distribution(OOD)一般化,理论上证明对输入扰动具有鲁棒性的模型可以在 OOD 数据上一般化;在图像分类和自然语言理解任务上进行了实证验证,并进一步理论证明了在预训练和微调范式中,更具扰动输入鲁棒性的预训练模型可以更好地初始化在下游 OOD 数据的泛化,实验证明在经过微调后,这种通过对抗训练预训练的更好初始化的模型也有更好的 OOD 一般化。
May, 2021
利用分布鲁棒优化的方式解决神经网络在对抗攻击下的鲁棒性问题,通过在 Wasserstein ball 内惩罚扰动数据分布的方式,通过我们提出的训练过程,能够实现对训练数据的最坏情况扰动而获得中等水平的健壮性,同时具有较小的计算和统计成本,并且我们的统计保证使我们能够有效地验证整体损失的健壮性,对于感知扰动,我们的方法与启发式方法相匹配或更好。
Oct, 2017