认证鲁棒神经网络:泛化和抗污染性
最近的研究表明,深度神经网络对于对抗样本存在漏洞。已经提出了许多防御方法以提高模型的鲁棒性,其中对抗训练最为成功。本文重新审视了鲁棒过拟合现象。我们认为,对抗训练过程中产生的自信模型可能是潜在的原因,通过实证观察支持,具有更好鲁棒泛化能力的模型对于对抗样本的预测标签往往具有更均匀的分布。基于对抗确立的定义,我们在对抗训练框架中引入了一个额外的梯度步骤,以寻找能够生成置信度较低的对抗扰动输入的模型,进一步提高鲁棒泛化。我们的方法具有普适性,可以轻松与其他对抗训练方法的变体结合。在图像基准实验上进行的大量实验证明了我们的方法有效地减轻了鲁棒过拟合,并能够产生鲁棒性持续提升的模型。
Oct, 2023
该研究论文探讨了对抗训练中的鲁棒性过拟合现象及其与扰动诱导分布的泛化困难性之间的相关性,提供了一个新的上界,其中称为 “局部离散性” 的扰动算子发挥了重要作用。
Nov, 2023
对深度神经网络(DNN)进行逆向训练以提高其对敌对扰动的鲁棒性是一种被广泛采用的方法。然而,经验观察到,对于超参数化网络的逆向训练往往存在 “鲁棒过拟合” 问题:它可以实现接近于零的逆向训练错误,但鲁棒性的泛化性能不佳。本文从逼近的角度对逆向训练中过拟合的 DNN 的泛化能力进行了理论研究,得出了三个主要结果:i)对于分类问题,我们通过构造证明在超参数化的 DNNs 上存在无穷多的逆向训练分类器,可以获得任意小的逆向训练错误(过拟合),同时在数据质量、明显分离和扰动水平等方面满足一定条件时可以获得良好的鲁棒泛化误差。ii)只要目标函数足够平滑,线性超参数化(即参数数量略大于样本大小)就足以确保这种存在性。iii)对于回归问题,我们的结果证明,在逆向训练中存在无穷多的超参数化过拟合 DNNs,可以实现几乎最优的标准泛化误差收敛速率。总体来说,我们的分析指出,鲁棒过拟合是可以避免的,但所需的模型容量将取决于目标函数的平滑程度,而鲁棒泛化差距是不可避免的。我们希望我们的分析能够更好地从逼近的角度理解 DNNs 的鲁棒性的数学基础。
Jan, 2024
该研究论文系统地回顾了针对深度学习模型的对抗训练在对抗鲁棒性方面的最新进展,并从三个视角讨论了对抗训练中的泛化问题,同时指出了尚未完全解决的挑战并提出潜在的未来研究方向。
Feb, 2021
本文针对对抗训练中的干净泛化和鲁棒过度拟合现象,提出了一种理论框架,分析了特征学习过程,证明了部分学习真实特征和完全记忆训练对抗样本中噪声特征的机制,并从损失景观动态的角度验证了我们的理论分析,提出了基于损失景观全局平坦性的鲁棒泛化界限。
Jun, 2023
本文研究用抽象认证来提取子输入以进行软对抗训练,提出了一个培训框架,能在约束条件下保持自然精度而不牺牲强健性,证明了软对抗性训练在对抗攻击防御方面的可行性,并提出了未来工作的范围以进一步改进该框架。
Jun, 2022
本文研究神经网络的鲁棒性问题,通过对抗训练的方法提高神经网络对抗扰动的鲁棒性。研究表明,通过对抗训练,网络可以收敛到一个鲁棒的分类器,传统的交叉熵损失函数不适用于训练鲁棒的分类器,也因此需要引入代理损失,并证明鲁棒插值需要更大的模型容量。
Jun, 2019
本文研究在简单自然数据模型中,对抗鲁棒学习的样本复杂度可以显著大于标准学习,这个差距是信息理论的,且与训练算法或模型家族无关。作者做了一些实验来证实这个结果。我们可以假设训练鲁棒分类器的困难,至少部分来自这种固有的更大的样本复杂度。
Apr, 2018