本研究评估了不同防御机制对神经网络的有效性,发现使用输入梯度规则化训练的神经网络具有抵御小幅度扰动的鲁棒性,并且可以提高预测的可解释性。同时,对这种神经网络产生的误分类可以解释,并进一步讨论了深度神经网络中解释性和鲁棒性之间的关系。
Nov, 2017
本文提出了一种新的数据依赖性结构化梯度正则化器,旨在增加神经网络对抗扰动的鲁棒性,该正则化器可以从第一原理中导出。实验证据表明,结构化梯度正则化是对抗低水平信号污染攻击的有效一线防御。
May, 2018
本文研究了神经网络建模的正则化视角,通过将模型向分类决策边界的平滑变化进行防御,使其尽可能不改变预测结果,但会导致预测结果的置信度下降,这种正则化方法要避免性能下降。
Nov, 2020
本文提出了一种统一框架来构建抵御对抗样本的强大机器学习模型,并通过梯度正则化方法有效地对代价函数的梯度进行惩罚,从而达到鲁棒性的目的。实验证明,该方法在两个基准数据集上达到了最佳精度。
Nov, 2015
本文介绍了一种新型的正则化方法,该正则化方法鼓励在训练数据附近的损失行为呈线性,从而惩罚梯度混淆并鼓励鲁棒性。通过在 CIFAR-10 和 ImageNet 上的大量实验,我们展示了使用我们的正则化方法训练的模型避免了梯度混淆,并且比对抗训练能够更快地训练。使用这种正则化方法,我们在 ImageNet 上取得了 47% 的对抗准确率和 8/255 的和 CIFAR-10 同样的表现。
Jul, 2019
该研究提出了一种基于 Frobenius 规范化 Jacobian 矩阵的网络后处理方法,以提高深度神经网络的鲁棒性,从而改善其对抗攻击的表现,同时对网络准确性的影响也很小。
Mar, 2018
本文研究了深度神经网络的输入梯度正则化,并证明了这种正则化可以导致泛化证明和改进的对抗性稳健性。通过将对抗训练与 Lipschitz 正则化相结合,可以使模型更加稳健,并且可以使用图像的梯度范数进行攻击检测。
Aug, 2018
该论文提出了一种基于生成对抗网络 (GAN) 框架下的新防御机制来对抗黑盒攻击,在经验上表现良好并能与利用梯度下降的集成对抗训练和对抗训练等最先进的方法媲美。
May, 2019
本文介绍了使用对抗训练算法来提高神经网络的鲁棒性,并且验证了该方法适用于各种不同类型的神经网络,通过实验证明对抗反向传播是一种有效的正则化方法。
Oct, 2015
通过提出综合强健的(HR)训练程序,理论和实验证明了其在对抗错误损失方面具有 SOTA 性能,并克服了在敌对训练中普遍存在的过度拟合问题。
Mar, 2023