本文提出了一种基于生成对抗网络的方法,通过优化骗过分类器的目标和增加多样性的目标训练生成器,从而模拟对抗性扰动的分布,生成多样的对抗性扰动,实现了在各种分类器上实现骗过率最大化,展示出了更好的通用性。
Dec, 2017
本文提出了一种针对深度网络易受对抗扰动攻击的问题的方法,使用预训练网络生成图像无关对抗扰动(UAPs),并通过在源模型的第一层仅关注对抗能量的损失,提高了 UAPs 的传递性,并在实验中展示了该方法的优越性。
Oct, 2020
研究表明,即使没有内部知识,对深度卷积神经网络进行黑盒攻击并制造对抗性样本是可行的,这暴露了深度神经网络的弱点,为设计安全的网络提供了检验。
Dec, 2016
本文提出了 AdvGAN,一种使用生成对抗网络产生高感知质量的对抗样本的方法,可以更高效地生成对抗性的扰动用于敌对训练,同时在半白盒和黑盒攻击设置下,AdvGAN 都能在 MNIST 黑盒攻击竞赛中取得 92.76%的攻击成功率。
Jan, 2018
本文提出了生成自然对抗样本的系统化方法,通过一些自然变化来模仿某种对象或信号,结果表明可以在图像分类模型和语音分类模型中成功生成对抗样本。
Nov, 2019
本文介绍了一种生成网络 —— 通用对抗网络,它可以在数据集中添加生成输出并欺骗目标分类器,从而提高通用对抗攻击的效果。
Aug, 2017
本文提出了一种使用生成敌对网络在语义空间中搜索自然和易读的对抗性样本的框架,以验证黑盒子分类器的鲁棒性,并证明该方法可在图像分类,文本蕴含和机器翻译等广泛应用中有效。
Oct, 2017
本文提出了一种新类的对抗样本 ——“语义对抗样本”,即通过对图像进行任意扰动来欺骗模型,但修改后的图像在语义上代表的仍是原始图像,通过构建约束优化问题和基于人类认知系统的形状偏置特性的对抗变换,生成对抗图像的颜色转移极大影响了 Deep neural networks 模型精度。
Mar, 2018
提出一种更通用的框架,该框架可以推断基于输入图像和目标标签的目标条件扰动,通过学习攻击目标与图像中的语义关系。在 MNIST 和 CIFAR10 数据集的广泛实验中,该方法实现了超越单目标攻击模型的优异性能,并以小扰动范数获得高愚弄率。
Jun, 2020
我们提出了一种新的技术,使用生成对抗网络使神经网络对抗性示例具有鲁棒性,通过交替训练分类器和生成器网络,我们成功地应用于 CIFAR 数据集的监督学习,实验结果表明我们的方法显著降低了网络的泛化误差。这是我们所知道的第一个使用 GAN 改进监督学习的方法。
May, 2017