通过限制神经网络的对抗梯度并增加对抗性样本生成的难度,提高了神经网络的鲁棒性,使其能够抵御各种类型的对抗性攻击,特别是迁移攻击。
May, 2018
本文介绍一种深度学习的补充框架:梯度对抗性训练,在此框架下,作者采用辅助网络来分类并调整梯度张量以实现统一性,进而增强了对抗攻击的鲁棒性,更好地在知识蒸馏及多任务学习中表现,并充分展示了梯度信息在训练过程中的重要性。
Jun, 2018
本文提出了一种统一框架来构建抵御对抗样本的强大机器学习模型,并通过梯度正则化方法有效地对代价函数的梯度进行惩罚,从而达到鲁棒性的目的。实验证明,该方法在两个基准数据集上达到了最佳精度。
Nov, 2015
本文研究深度神经网络中对抗样本易受攻击的问题,通过引入线性反向传播的方法,增强了对抗样本的传递性,实现了更加有效的黑盒攻击。
Dec, 2020
本文提出了一种新方法,即 Backward Propagation Attack(BPA),以增强与输入图像相关的梯度和损失函数之间的关联性,从而生成更具有传递性的对抗性样本,这在提高对真实世界应用的攻击中有很大的潜力。
Jun, 2023
机器学习模型因神经网络的线性特性容易受到对抗性扰动的影响,该现象不同于过拟合和非线性,但可以通过生成对抗性训练样本来减小 MNIST 数据集中 maxout 网络的误差。
Dec, 2014
论文研究了神经网络模型的不确定性对于对抗样本的产生具有决定性作用,与体系结构、数据集和训练协议无关,表现为对抗误差具有与对抗扰动大小呈幂律的普适性,通过减小预测熵来提高对抗鲁棒性,在 CIFAR10 上使用神经架构搜索找到更鲁棒的架构。
Nov, 2017
该研究探讨使用对抗性失活的方法改进神经网络的泛化性能,发现对抗失活增加了神经网络的稀疏度,从而改进了 MNIST 和 CIFAR-10 数据集上的监督和半监督学习任务的泛化性能。
Jul, 2017
研究表明,即使没有内部知识,对深度卷积神经网络进行黑盒攻击并制造对抗性样本是可行的,这暴露了深度神经网络的弱点,为设计安全的网络提供了检验。
Dec, 2016
该论文提出了一种基于生成对抗网络 (GAN) 框架下的新防御机制来对抗黑盒攻击,在经验上表现良好并能与利用梯度下降的集成对抗训练和对抗训练等最先进的方法媲美。
May, 2019