本文提出了一种基于生成对抗网络的方法,通过优化骗过分类器的目标和增加多样性的目标训练生成器,从而模拟对抗性扰动的分布,生成多样的对抗性扰动,实现了在各种分类器上实现骗过率最大化,展示出了更好的通用性。
Dec, 2017
本文提出了一种新的框架 Attack-Inspired GAN,它可以通过联合训练的生成器、鉴别器和攻击器,以更有效的方式生成攻击性畸变,从而实现对图像分类任务的攻击成功率提高和生成时间的减少。
Feb, 2020
本文提出了 AdvGAN,一种使用生成对抗网络产生高感知质量的对抗样本的方法,可以更高效地生成对抗性的扰动用于敌对训练,同时在半白盒和黑盒攻击设置下,AdvGAN 都能在 MNIST 黑盒攻击竞赛中取得 92.76%的攻击成功率。
Jan, 2018
本文研究了在语义分割和物体检测领域中存在的对抗样本,并通过一种名为 DAG(Dense Adversary Generation)的算法来产生大量对抗样本,可以应用于各种先进的深度网络架构,除此之外还发现了对抗扰动可以在不同的训练数据、不同的架构以及不同的任务之间进行传递,尤其是在具有相同架构的网络之间的可传递性更加显著;此外,对多个异构扰动进行求和通常会导致更好的传递性能,这提供了一种有效的黑盒对抗攻击方法。
Mar, 2017
该研究提出了新型生成模型,用于制造近似自然图像但又能欺骗先前训练好的模型的略微扰动的对抗性样本。通过在具有挑战性的高分辨率数据集上的实验,它证明了这种扰动具有高弄虚率和较小的扰动规模,并且比当前的迭代方法更快。
本文提出了一种新的威胁模型,即无限制敌对样本。通过条件生成模型,利用辅助分类生成对抗网络(AC-GAN)对数据进行分类,搜索潜空间并生成可能是该类别的在传统敌对攻击中被误分类的图像,证明它们确实属于该类别,并表明无限制敌对样本可以绕过传统的敌对训练和认证的攻击防御方法。
May, 2018
该论文提出了一种基于生成对抗网络 (GAN) 框架下的新防御机制来对抗黑盒攻击,在经验上表现良好并能与利用梯度下降的集成对抗训练和对抗训练等最先进的方法媲美。
May, 2019
本文提出了一种新类的对抗样本 ——“语义对抗样本”,即通过对图像进行任意扰动来欺骗模型,但修改后的图像在语义上代表的仍是原始图像,通过构建约束优化问题和基于人类认知系统的形状偏置特性的对抗变换,生成对抗图像的颜色转移极大影响了 Deep neural networks 模型精度。
Mar, 2018
本文主要研究了神经网络在图像识别中的缺陷,提交了一种基于生成对抗网络的防御方法 APE-GAN,并在三个基准数据集上进行了实验,表明 APE-GAN 能有效地抵御五种攻击方式的对抗样本。
Jul, 2017
本文提出了一种使用生成敌对网络在语义空间中搜索自然和易读的对抗性样本的框架,以验证黑盒子分类器的鲁棒性,并证明该方法可在图像分类,文本蕴含和机器翻译等广泛应用中有效。
Oct, 2017