本文提出了 AdvGAN,一种使用生成对抗网络产生高感知质量的对抗样本的方法,可以更高效地生成对抗性的扰动用于敌对训练,同时在半白盒和黑盒攻击设置下,AdvGAN 都能在 MNIST 黑盒攻击竞赛中取得 92.76%的攻击成功率。
Jan, 2018
我们提出了一种新的技术,使用生成对抗网络使神经网络对抗性示例具有鲁棒性,通过交替训练分类器和生成器网络,我们成功地应用于 CIFAR 数据集的监督学习,实验结果表明我们的方法显著降低了网络的泛化误差。这是我们所知道的第一个使用 GAN 改进监督学习的方法。
May, 2017
本文提出了一种名为 “deep defense” 的训练方法来解决深度神经网络易受到对抗样本攻击的问题,通过将对抗扰动的正则化器与分类目标相结合,得到的模型能够直接且准确地学习抵御潜在的攻击,实验证明该方法在不同数据集上对比对抗 / Parseval 正则化方法有更好的效果。
Feb, 2018
研究表明,即使没有内部知识,对深度卷积神经网络进行黑盒攻击并制造对抗性样本是可行的,这暴露了深度神经网络的弱点,为设计安全的网络提供了检验。
Dec, 2016
本文提出了一种新的框架 Attack-Inspired GAN,它可以通过联合训练的生成器、鉴别器和攻击器,以更有效的方式生成攻击性畸变,从而实现对图像分类任务的攻击成功率提高和生成时间的减少。
Feb, 2020
Defense-GAN 使用生成模型来抵御深度神经网络受到的对抗性攻击,并不需要修改分类器结构或者训练过程,可以适用于任何分类模型,并且不需要了解生成对抗性示例的过程。在不同的攻击方法下,实验证明 Defense-GAN 对抗性攻击防御策略具有一致的有效性,并可以提高现有的防御策略。
May, 2018
本文研究深度学习中的对抗样本问题,总结了生成对抗样本的方法,提出了对抗样本的应用分类,并探讨了对抗样本的攻击和防御策略以及面临的挑战和潜在解决方案。
Dec, 2017
该研究提出了一种新的对抗样本攻击方法,考虑到人类感知系统并最大化制作的对抗样本的噪声容忍度,实验结果证明了该技术的有效性。
本文介绍一种名为生成对抗训练的方法,用于提高深度神经网络对测试集和域外样本的泛化能力,并增强其抵抗未知对抗攻击的能力。
Sep, 2021
该研究论文研究了深度神经网络的鲁棒性问题,特别是针对对抗样本的攻击。通过探索神经网络的结构,拓扑结构,预处理和训练策略等方面来提高深度神经网络的抗干扰能力,并且通过引入平滑性惩罚来提高其稳健性。
Dec, 2014