基于 Fisher-Rao 范式的正则化提升对抗训练
本文介绍了一种新型的正则化方法,该正则化方法鼓励在训练数据附近的损失行为呈线性,从而惩罚梯度混淆并鼓励鲁棒性。通过在 CIFAR-10 和 ImageNet 上的大量实验,我们展示了使用我们的正则化方法训练的模型避免了梯度混淆,并且比对抗训练能够更快地训练。使用这种正则化方法,我们在 ImageNet 上取得了 47% 的对抗准确率和 8/255 的和 CIFAR-10 同样的表现。
Jul, 2019
本文主要研究了机器学习模型的鲁棒性问题,特别是针对 l∞ 攻击所造成的影响,并考察了基于 Rademacher 复杂度的鲁棒泛化问题。研究表明,通过限制权重矩阵的 l1 范数可能是提高在对抗环境下的泛化性能的有效方法。
Oct, 2018
本文提出了一种通过优化辅助一致性规则损失来避免鲁棒过度拟合的有效正则化技术,在 Adversarial training 过程中使用数据扩增来强制攻击后的预测分布相似。实验结果表明,这种简单的方法可以显著提高各种 AT 方法的测试准确性,并对模型作出更具实际意义的泛化。
Mar, 2021
本文提出了一种新颖的正则化方法 SOAR,它是基于强健优化架构中内向最大值的 Taylor 近似推导的上界,实验证明其在对抗样本的生成和鲁棒性上能够显著提高深度神经网络的性能。
Apr, 2020
研究了在 $l_r$-norm 测量下带有敌对干扰的线性假设的敌对经验 Rademacher 复杂性的上限和下限,扩展了已有的结果并提供了更精细的维度依赖性分析,并在单个 ReLU 单元和具有一层隐藏层的前馈神经网络中提供了 Rademacher 复杂度上下界。
Apr, 2020
本文提出一种新的方法,通过 Oracle-Aligned Adversarial Training (OA-AT) 的方式来提高神经网络对抗攻击的鲁棒性,可以在大的扰动(如 L-inf bound 为 16/255 时)达到最先进的性能,同时在标准边界(8/255)也胜过现有的防御机制。
Oct, 2022
本论文研究了一种泛用的对抗训练算法的泛化性能,并考虑了线性回归模型和两层神经网络(使用平方损失)在低维和高维情况下的表现,其中,我们发现数据内插会防止对抗性鲁棒估算器的一致性,因此,我们引入 L1 惩罚,在高维对抗学习中,证明了它可以导致一致的对抗性鲁棒估计。
Aug, 2020
基于异常值健壮的对抗训练(ORAT)是在传统健壮学习方法和最近的对抗训练方法的基础上开发的,以同时处理低质量训练数据和推理时的敌对攻击,并在三个基准数据集上展示了其有效性和鲁棒性。
Sep, 2023
提出了一种使用二次近似的拟合函数的新型规则化器,并通过迭代计算逼近最坏情况二次损失,从而在具有良好的鲁棒性的同时避免了梯度混淆和降低了训练时间。实验证明,该模型产生的人类可解释性特征优于其他几何正则化技术,并且这些鲁棒特征可用于提供人性化的模型预测解释。
Sep, 2020