有限训练数据下针对黑盒 API 的生成对抗网络攻击
本论文提出一种名为 MalGAN 的生成对抗网络 (GAN) 算法来生成对手样本,以绕过基于黑盒机器学习的检测模型,相对于传统的基于梯度的对手样本生成算法,MalGAN 能够将检测率降至几乎为零,并使基于重新训练的防御方法难以奏效。
Feb, 2017
本文提出了一种新的框架 Attack-Inspired GAN,它可以通过联合训练的生成器、鉴别器和攻击器,以更有效的方式生成攻击性畸变,从而实现对图像分类任务的攻击成功率提高和生成时间的减少。
Feb, 2020
本文介绍了一种新的生成模型,用于对机器学习分类器进行攻击,并提出了一种生成式对抗网络,包括生成器、鉴别器和目标分类器,以模拟在现实攻击中可以预期的检测限制,进而确定底层数据分布的易受数据中毒攻击的区域。
Jun, 2019
该论文提出了一种基于生成对抗网络 (GAN) 框架下的新防御机制来对抗黑盒攻击,在经验上表现良好并能与利用梯度下降的集成对抗训练和对抗训练等最先进的方法媲美。
May, 2019
本文提出了 AdvGAN,一种使用生成对抗网络产生高感知质量的对抗样本的方法,可以更高效地生成对抗性的扰动用于敌对训练,同时在半白盒和黑盒攻击设置下,AdvGAN 都能在 MNIST 黑盒攻击竞赛中取得 92.76%的攻击成功率。
Jan, 2018
本文通过使用 GAN 生成无约束对抗样本并在潜空间中成功操纵潜向量以欺骗分类模型,提出了一个新的方法:Latent-HSJA,该方法在黑盒设置中只能访问分类模型的前 k 项决策,是对少量查询的分类模型强度评估的有效方法。
Aug, 2022
Defense-GAN 使用生成模型来抵御深度神经网络受到的对抗性攻击,并不需要修改分类器结构或者训练过程,可以适用于任何分类模型,并且不需要了解生成对抗性示例的过程。在不同的攻击方法下,实验证明 Defense-GAN 对抗性攻击防御策略具有一致的有效性,并可以提高现有的防御策略。
May, 2018
本文提出了一种使用生成敌对网络在语义空间中搜索自然和易读的对抗性样本的框架,以验证黑盒子分类器的鲁棒性,并证明该方法可在图像分类,文本蕴含和机器翻译等广泛应用中有效。
Oct, 2017
该研究介绍了一种利用黑盒攻击实现远程控制机器学习模型的方法,该攻击方式不需要了解模型内部或训练数据。研究表明该黑盒攻击策略可适用于许多机器学习技术,并且能够规避之前发现的防御策略。
Feb, 2016
本文提出了一种新的方法,利用自然进化策略在黑盒攻击下生成可靠的对抗样本,并通过新的算法在部分信息下进行有针对性的攻击,无需使用梯度,可以使用少量的请求操作,成功地对商业部署的机器学习系统进行了第一次有针对性的攻击。
Dec, 2017