对抗攻击、回归和数值稳定性正则化
最新机器学习模型存在脆弱性,而对抗训练是一种有效方法,本研究着重探究线性模型下的脆弱性,并对对抗训练在线性回归和其他正则化方法中的解决方案进行了比较分析。
Oct, 2023
该研究提出了一种基于 Frobenius 规范化 Jacobian 矩阵的网络后处理方法,以提高深度神经网络的鲁棒性,从而改善其对抗攻击的表现,同时对网络准确性的影响也很小。
Mar, 2018
在神经网络的研究中,我们开发了一种新的梯度基础的对抗攻击方法,相较于已有的攻击方法,它更可靠,可以适应广泛的对抗标准,并且在提高效率的同时,不需要进行超参数调整,这将对神经网络的鲁棒性评估做出有益的贡献。
Jul, 2019
将对抗性攻击表示为可训练函数,使用神经网络模拟理想攻击过程,并降低对抗训练为攻击网络和防御网络之间的数学博弈,同时在此设置中获得了对抗性训练的收敛速率。
Jul, 2023
本文介绍了一种新型的正则化方法,该正则化方法鼓励在训练数据附近的损失行为呈线性,从而惩罚梯度混淆并鼓励鲁棒性。通过在 CIFAR-10 和 ImageNet 上的大量实验,我们展示了使用我们的正则化方法训练的模型避免了梯度混淆,并且比对抗训练能够更快地训练。使用这种正则化方法,我们在 ImageNet 上取得了 47% 的对抗准确率和 8/255 的和 CIFAR-10 同样的表现。
Jul, 2019
综述了最近几年针对 NLP 中深度神经网络面对对抗干扰的鲁棒性不足和易受攻击的挑战,提出了一种新的分类方法,介绍了不同的对抗防御方法和其在训练中作为正则化机制的应用,并指出了深度神经网络的脆弱性和对其进行防御面临的挑战。
Mar, 2022
通过稳健优化方法探究神经网络对抗攻击的鲁棒性,设计出对抗攻击和训练模型的可靠方法,提出对于一阶对手的安全保证,并得到针对广泛对抗攻击的高鲁棒性网络模型。
Jun, 2017
本文探讨应对不同规范的对抗性攻击所产生的难题,并提供了一些理论和经验性的见解,讨论如何结合现有的防御机制来提高神经网络的鲁棒性。实验结果表明,这些新的防御机制能更好地保护神经网络不受两种规范攻击。
Mar, 2019