用于本地稳定深度神经网络的流形正则化
本文提出了一种新的数据依赖性结构化梯度正则化器,旨在增加神经网络对抗扰动的鲁棒性,该正则化器可以从第一原理中导出。实验证据表明,结构化梯度正则化是对抗低水平信号污染攻击的有效一线防御。
May, 2018
通过使用再生核希尔伯特空间的范数作为正则化深度神经网络的新视角来提高学习效果,并提出了一些新的有效的正则化策略,实验结果表明这种方法在小数据集或对抗鲁棒性较高的模型上都取得了很好的效果。
Sep, 2018
本文研究了对抗训练对分类景观和决策边界几何形态的影响,展示了对抗训练导致的输入空间曲率减少及网络更“线性”行为的结果。我们提出一个直接最小化损失面曲率的新的规则化方法,并提供了理论上的证据表明大鲁棒性与小曲率之间存在强关联。
Nov, 2018
本文旨在探讨一种对抗性对抗性鲁棒性的梯度正则化方法,其中使用局部梯度信息得出新颖的理论鲁棒性边界,并利用可扩展的输入梯度正则化来训练出具有鲁棒性的ImageNet模型,同时实验证明输入梯度正则化与对抗性训练具有相似的训练效果。
May, 2019
本文介绍了一种新型的正则化方法,该正则化方法鼓励在训练数据附近的损失行为呈线性,从而惩罚梯度混淆并鼓励鲁棒性。通过在 CIFAR-10 和 ImageNet 上的大量实验,我们展示了使用我们的正则化方法训练的模型避免了梯度混淆,并且比对抗训练能够更快地训练。使用这种正则化方法,我们在 ImageNet 上取得了 47% 的对抗准确率和 8/255的和 CIFAR-10 同样的表现。
Jul, 2019
本文提出了一种新颖的正则化方法SOAR,它是基于强健优化架构中内向最大值的Taylor近似推导的上界,实验证明其在对抗样本的生成和鲁棒性上能够显著提高深度神经网络的性能。
Apr, 2020
提出了一种使用二次近似的拟合函数的新型规则化器,并通过迭代计算逼近最坏情况二次损失,从而在具有良好的鲁棒性的同时避免了梯度混淆和降低了训练时间。实验证明,该模型产生的人类可解释性特征优于其他几何正则化技术,并且这些鲁棒特征可用于提供人性化的模型预测解释。
Sep, 2020
本文提出了一种通过优化辅助一致性规则损失来避免鲁棒过度拟合的有效正则化技术,在 Adversarial training 过程中使用数据扩增来强制攻击后的预测分布相似。实验结果表明,这种简单的方法可以显著提高各种 AT 方法的测试准确性,并对模型作出更具实际意义的泛化。
Mar, 2021
本研究关注人工神经网络对抗攻击的脆弱性,针对以往方法的计算难题,提出了一种新颖的正则化对抗训练方法,将$\phi$-散度正则化纳入分布鲁棒风险函数中。研究结果表明,该方法在多个学习领域中表现出超越最新技术的鲁棒性能,显著改进了计算效率。
Aug, 2024