本文提出了一种新的用于攻击自编码器(autoencoders)的方案,并设计了一个定量评估框架来评估攻击抵抗性。在三个常用数据集上,通过统计验证实验证明带有循环和注意力机制的 DRAW 模型具有更好的抵抗性,这对于自编码器在数据压缩方面的应用十分重要,并引起了更多人对于对抗攻击的关注。
Jun, 2018
使用变分自编码器的防御策略抵御深度神经网络在图片分类任务中的对抗性攻击。这个防御系统具有灵活性、可学习分解表示以及基于像素块不需要针对不同尺寸的图片进行重新训练等特性,并在中度到严重的攻击情况下,明显胜过 JPEG 压缩及其最优参数,同时仍有提升空间。
Dec, 2018
本篇研究探索在变分自编码器(VAE)和 VAE-GAN 等深度生成模型中生成对抗性样本的方法,并提出了三种攻击方式来测试针对 MNIST、SVHN 和 CelebA 数据集训练的网络,分别利用基于分类的对手,直接利用 VAE 的损失函数生成重构图像,以及直接优化源和目标潜在表示之间的差异。
Feb, 2017
基于卷积自编码器的方法提高目标分类器对抗性攻击的鲁棒性,通过生成与输入图像相似的图像来恢复模型的准确性。
Dec, 2023
本文介绍了一种利用变分自编码器 (VAE) 来解决深度神经网络 (DNN) 易受到针对性攻击的问题的方法,其关键是将鉴别模型与生成模型相结合,在先验分布中进行选择性分类,从而提高分类的准确性。
May, 2018
本研究结合统计假设检验和条件变分自动编码器技术,提出使用 CVAE 来有效检测图像分类网络中的对抗性攻击,并在 MNIST 和 CIFAR-10 数据集上证明了该方法的可行性和效果。
Nov, 2021
研究了一种基于自编码器的图像异常检测方法,发现传统方法在训练时存在离群点时导致异常检测性能降低的问题,使用对抗自编码器引入先验分布可以较好地克服该问题。
Jan, 2019
本研究提出了一种基于目标网络隐藏层数据表示的机制来检测对抗性样本,该机制训练了目标网络中间层的单独的自编码器,可以描述真实数据的流形,从而判断一个给定的例子是否具有与真实数据相同的特征,并探究对抗性样本在深度神经网络层中的行为。实验结果表明,我们的方法在监督和无监督环境中表现优于现有技术水平。
Jun, 2020
本文提出了一种使用类自编码器的网络生成对训练数据加入扰动的新方法,可以对受害分类器的行为(无论是有目的还是非有目的的)进行操纵并降低其泛化能力。通过实验验证,这种方法可以被应用到各种数据集中,并且具有很好的可迁移性。
May, 2019
本文第一次对生成自编码器的最坏情况容忍性进行研究,发现在某些情况下,恶意攻击者可以利用潜在空间攻击常见的生成自编码器,同时我们通过实验还发现了生成自编码器与其确定性变体之间的差异,并考虑了在最坏情况容忍性和潜在代码解缠之间的潜在权衡。
Jul, 2023