本文介绍了一种通过强制表示不变性来提高深度神经网络对抗攻击鲁棒性的方法,并比较其与其他标准对抗训练方法的可行性。
Jan, 2018
本文探讨了敌对训练对 DNN 的梯度提升及其可解释性的影响,发现敌对训练能够使得损失梯度更加符合人类感知,且提出了在测试准确性和损失梯度可解释性之间的权衡以及解决方案。
Mar, 2019
我们提出了一种新的技术,使用生成对抗网络使神经网络对抗性示例具有鲁棒性,通过交替训练分类器和生成器网络,我们成功地应用于 CIFAR 数据集的监督学习,实验结果表明我们的方法显著降低了网络的泛化误差。这是我们所知道的第一个使用 GAN 改进监督学习的方法。
May, 2017
该论文提出了一种基于生成对抗网络 (GAN) 框架下的新防御机制来对抗黑盒攻击,在经验上表现良好并能与利用梯度下降的集成对抗训练和对抗训练等最先进的方法媲美。
May, 2019
本文介绍了使用对抗训练算法来提高神经网络的鲁棒性,并且验证了该方法适用于各种不同类型的神经网络,通过实验证明对抗反向传播是一种有效的正则化方法。
Oct, 2015
本文提出了一种名为对抗变换网络(ATN)的新方法,其快速执行并提供出色的输出多样性,并在多个分类器上分析了其有效性。该方法旨在通过对简陋的模拟数据进行自我监督训练,生成最小化修改分类器输出的对抗性示例,同时限制新分类器以匹配对抗性目标类别。
Mar, 2017
通过回收在更新模型参数过程中计算的渐变信息,提出了一种消除生成对抗样本开销的自由对抗训练算法,这个算法在 CIFAR-10 和 CIFAR-100 上达到了与 PGD 对抗训练相当的稳健性,其相比于自然训练的额外成本微不足道,并且可以比其他强对抗训练方法快 7 ~ 30 倍。使用单个带 4 个 P100 GPU 的工作站和 2 天运行时间,我们可以训练出针对大规模 ImageNet 分类任务的稳健模型,其对 PGD 攻击的准确率仍可保持在 40% 左右。
Apr, 2019
本文介绍了对抗训练在解决图神经网络中的结构扰动方面的局限并展示了基于可学习图扩散的灵活图神经网络和针对多节点和全局约束的结构扰动攻击,进一步证明了对抗训练作为对抗性结构扰动的最先进防御手段。
Jun, 2023
通过限制神经网络的对抗梯度并增加对抗性样本生成的难度,提高了神经网络的鲁棒性,使其能够抵御各种类型的对抗性攻击,特别是迁移攻击。
May, 2018
本文介绍一种名为生成对抗训练的方法,用于提高深度神经网络对测试集和域外样本的泛化能力,并增强其抵抗未知对抗攻击的能力。
Sep, 2021