对抗鲁棒模型的好奇案例:更多的数据可以帮助,双下降,还是伤害泛化能力
针对现代机器学习模型易受到对人类不可察觉的攻击的问题,采用对抗培训来学习鲁棒模型的代价是在未被扰动的测试集上存在更高的泛化误差,此研究证明更多的数据可能会增加鲁棒分类器与标准分类器泛化误差的差距并提出了理论结果以判定何时和何种情况下添加更多数据才能缩小这种差距,此现象也出现在线性回归模型中。
Feb, 2020
本文研究在简单自然数据模型中,对抗鲁棒学习的样本复杂度可以显著大于标准学习,这个差距是信息理论的,且与训练算法或模型家族无关。作者做了一些实验来证实这个结果。我们可以假设训练鲁棒分类器的困难,至少部分来自这种固有的更大的样本复杂度。
Apr, 2018
本文研究了对抗训练在提高鲁棒精度(对抗方面)的同时又有可能降低标准精度(没有对抗方面)。通过构造凸学习问题,我们发现鲁棒精度和泛化能力之间存在基本的紧张关系,而利用未标记的数据进行鲁棒自我训练可以消除这种关系。
Jun, 2019
本文研究了神经网络对抗性鲁棒性问题,通过理论和实验结果表明,增加未标记数据的使用,可以提高抗干扰泛化性能,并提出一种算法在 MNIST 和 Cifar-10 上的对抗训练方法。
Jun, 2019
该研究论文探讨了对抗训练中的鲁棒性过拟合现象及其与扰动诱导分布的泛化困难性之间的相关性,提供了一个新的上界,其中称为 “局部离散性” 的扰动算子发挥了重要作用。
Nov, 2023
最近的研究表明,深度神经网络对于对抗样本存在漏洞。已经提出了许多防御方法以提高模型的鲁棒性,其中对抗训练最为成功。本文重新审视了鲁棒过拟合现象。我们认为,对抗训练过程中产生的自信模型可能是潜在的原因,通过实证观察支持,具有更好鲁棒泛化能力的模型对于对抗样本的预测标签往往具有更均匀的分布。基于对抗确立的定义,我们在对抗训练框架中引入了一个额外的梯度步骤,以寻找能够生成置信度较低的对抗扰动输入的模型,进一步提高鲁棒泛化。我们的方法具有普适性,可以轻松与其他对抗训练方法的变体结合。在图像基准实验上进行的大量实验证明了我们的方法有效地减轻了鲁棒过拟合,并能够产生鲁棒性持续提升的模型。
Oct, 2023
我们证明了,追求对抗鲁棒性和标准泛化之间存在固有的紧张关系,训练鲁棒性模型不仅可能更加费时,也会导致标准准确性的降低,并且这种现象是由于鲁棒分类器学习了根本不同的特征表示方法。
May, 2018
本文研究了针对二分类问题且数据按两个具有各向异性协方差矩阵的高斯混合分布产生的情况。在这个问题上,我们推导了一种具有极小 - 极大策略的经过对抗训练的模型在标准和鲁棒准确性方面的精确表现。
Oct, 2020
研究深度学习领域中常用的过参数化网络和尽可能训练的现象,发现对于对抗训练的深度网络来说过拟合确实会对其稳健性产生很大的负面影响,因此建议使用提前停止等方法来取得相似的性能提升。
Feb, 2020