本文介绍了一种利用变分自编码器 (VAE) 来解决深度神经网络 (DNN) 易受到针对性攻击的问题的方法,其关键是将鉴别模型与生成模型相结合,在先验分布中进行选择性分类,从而提高分类的准确性。
May, 2018
使用变分自编码器的防御策略抵御深度神经网络在图片分类任务中的对抗性攻击。这个防御系统具有灵活性、可学习分解表示以及基于像素块不需要针对不同尺寸的图片进行重新训练等特性,并在中度到严重的攻击情况下,明显胜过 JPEG 压缩及其最优参数,同时仍有提升空间。
Dec, 2018
该论文提出了一种基于生成对抗网络 (GAN) 框架下的新防御机制来对抗黑盒攻击,在经验上表现良好并能与利用梯度下降的集成对抗训练和对抗训练等最先进的方法媲美。
May, 2019
本文提出了 AdvGAN,一种使用生成对抗网络产生高感知质量的对抗样本的方法,可以更高效地生成对抗性的扰动用于敌对训练,同时在半白盒和黑盒攻击设置下,AdvGAN 都能在 MNIST 黑盒攻击竞赛中取得 92.76%的攻击成功率。
Jan, 2018
研究了对自编码器的对抗攻击,提出了一种畸变输入图像的方法来产生与目标图像不同的自编码器输出,发现自编码器比分类器更抗对抗攻击,同时研究表明,对分类器的常规对抗攻击存在输入畸变和输出误导之间的直接比例关系。
Dec, 2016
本文提出了一种新的用于攻击自编码器(autoencoders)的方案,并设计了一个定量评估框架来评估攻击抵抗性。在三个常用数据集上,通过统计验证实验证明带有循环和注意力机制的 DRAW 模型具有更好的抵抗性,这对于自编码器在数据压缩方面的应用十分重要,并引起了更多人对于对抗攻击的关注。
Jun, 2018
本文提出了一种新的框架 Attack-Inspired GAN,它可以通过联合训练的生成器、鉴别器和攻击器,以更有效的方式生成攻击性畸变,从而实现对图像分类任务的攻击成功率提高和生成时间的减少。
Feb, 2020
本文介绍了针对生成模型学习中 GAN 和 VAEs 的新方法,并阐述了 GAN 和 VAEs 的相似性和差异性,探讨了它们的后验推理和 KL 散度的最小化问题,并将 VAEs 的 importance weighting 方法应用到 GAN 的学习中,同时采用对抗性机制加强 VAEs 模型,实验证明了这些方法的普适性和有效性。
Jun, 2017
本文对机器学习模型在视觉领域中面临的对抗性攻击和防御方法进行了广泛探讨,并讨论了不同攻击和防御方法的优点和缺点。旨在提供广泛的领域覆盖和机械进攻和防御机制的直观理解。
Nov, 2019
本文提出了一种新的威胁模型,即无限制敌对样本。通过条件生成模型,利用辅助分类生成对抗网络(AC-GAN)对数据进行分类,搜索潜空间并生成可能是该类别的在传统敌对攻击中被误分类的图像,证明它们确实属于该类别,并表明无限制敌对样本可以绕过传统的敌对训练和认证的攻击防御方法。