本文提出了一种新的用于攻击自编码器(autoencoders)的方案,并设计了一个定量评估框架来评估攻击抵抗性。在三个常用数据集上,通过统计验证实验证明带有循环和注意力机制的 DRAW 模型具有更好的抵抗性,这对于自编码器在数据压缩方面的应用十分重要,并引起了更多人对于对抗攻击的关注。
Jun, 2018
使用变分自编码器的防御策略抵御深度神经网络在图片分类任务中的对抗性攻击。这个防御系统具有灵活性、可学习分解表示以及基于像素块不需要针对不同尺寸的图片进行重新训练等特性,并在中度到严重的攻击情况下,明显胜过 JPEG 压缩及其最优参数,同时仍有提升空间。
Dec, 2018
该研究提出了一种名为 APuDAE 的深度学习框架,利用去噪自编码器(DAE)以自适应方式净化样本,并提高目标分类器网络的分类准确度并使其更加鲁棒。
Aug, 2022
研究了一种基于自编码器的图像异常检测方法,发现传统方法在训练时存在离群点时导致异常检测性能降低的问题,使用对抗自编码器引入先验分布可以较好地克服该问题。
Jan, 2019
本研究结合统计假设检验和条件变分自动编码器技术,提出使用 CVAE 来有效检测图像分类网络中的对抗性攻击,并在 MNIST 和 CIFAR-10 数据集上证明了该方法的可行性和效果。
Nov, 2021
该研究论文研究了深度神经网络的鲁棒性问题,特别是针对对抗样本的攻击。通过探索神经网络的结构,拓扑结构,预处理和训练策略等方面来提高深度神经网络的抗干扰能力,并且通过引入平滑性惩罚来提高其稳健性。
Dec, 2014
本文提出了一个有效的图像增强方法,通过深度图像恢复网络来将离散的对抗噪声样本转换回自然图像流形,从而提高对抗性的鲁棒性,同时提高图像质量和保持干净图像上的性能表现。
研究了对自编码器的对抗攻击,提出了一种畸变输入图像的方法来产生与目标图像不同的自编码器输出,发现自编码器比分类器更抗对抗攻击,同时研究表明,对分类器的常规对抗攻击存在输入畸变和输出误导之间的直接比例关系。
Dec, 2016
本文提出了一种针对图像分类器集合的迭代式对抗攻击方法,通过此方法,在 CAAD 2018 针对性对抗攻击竞赛中获得第五名,该方法提高了黑匣子对抗攻击的成功率。
Nov, 2018
通过提出反对抗层,解决深度神经网络对小幅度输入扰动的脆弱性问题,并在 CIFAR10、CIFAR100 和 ImageNet 数据集上进行实验,结果显示该方法显著提高了模型的稳健性能且对准确率没有成本影响。
Mar, 2021