过参数化神经网络中对抗训练的收敛
对深度神经网络(DNN)进行逆向训练以提高其对敌对扰动的鲁棒性是一种被广泛采用的方法。然而,经验观察到,对于超参数化网络的逆向训练往往存在 “鲁棒过拟合” 问题:它可以实现接近于零的逆向训练错误,但鲁棒性的泛化性能不佳。本文从逼近的角度对逆向训练中过拟合的 DNN 的泛化能力进行了理论研究,得出了三个主要结果:i)对于分类问题,我们通过构造证明在超参数化的 DNNs 上存在无穷多的逆向训练分类器,可以获得任意小的逆向训练错误(过拟合),同时在数据质量、明显分离和扰动水平等方面满足一定条件时可以获得良好的鲁棒泛化误差。ii)只要目标函数足够平滑,线性超参数化(即参数数量略大于样本大小)就足以确保这种存在性。iii)对于回归问题,我们的结果证明,在逆向训练中存在无穷多的超参数化过拟合 DNNs,可以实现几乎最优的标准泛化误差收敛速率。总体来说,我们的分析指出,鲁棒过拟合是可以避免的,但所需的模型容量将取决于目标函数的平滑程度,而鲁棒泛化差距是不可避免的。我们希望我们的分析能够更好地从逼近的角度理解 DNNs 的鲁棒性的数学基础。
Jan, 2024
研究了深度学习算法中存在的对抗性攻击问题,提供了一种新的对抗性训练算法,通过将最小 - 最大问题解释为最优控制问题进行优化,从而大幅度提高训练时间,并通过实验证明了该算法的稳定性和收敛性。
May, 2020
本文研究对抗样本攻击机器学习模型并提出一种新的攻击方法,证明最先进的对抗训练方法无法同时获得对 $\ell_2$ 和 $\ell_\infty$ 范数的健壮性,提出可能的解决方案及其局限性。
May, 2019
最新机器学习模型存在脆弱性,而对抗训练是一种有效方法,本研究着重探究线性模型下的脆弱性,并对对抗训练在线性回归和其他正则化方法中的解决方案进行了比较分析。
Oct, 2023
提出了一个使用鲁棒性优化(RO)增加人工神经网络(ANN)本地稳定性的通用框架。该算法是通过替代最小化 - 最大化过程实现的,该网络的损失是在每个参数更新时生成的扰动样本上最小化的。实验结果表明,该方法提高了网络对现有敌对示例的鲁棒性,同时使生成新的敌对示例更加困难,而且该算法还提高了网络在原始测试数据上的准确性。
Nov, 2015
本文研究了有关深度学习的两个问题:对抗攻击与深度学习的泛化能力。以 Neural Tangent Kernel(NTK)为主要理论,探究有限宽度下的 kernel learning 与 lazy training,结果表明标准训练与对抗训练会有不同的 NTK,最终可以得到一个在 CIFAR-10 数据集上具有 76.1% 鲁棒性的分类器。
Oct, 2022
将对抗性攻击表示为可训练函数,使用神经网络模拟理想攻击过程,并降低对抗训练为攻击网络和防御网络之间的数学博弈,同时在此设置中获得了对抗性训练的收敛速率。
Jul, 2023