VAE 在交叉群体之间的对抗鲁棒性
本文第一次对生成自编码器的最坏情况容忍性进行研究,发现在某些情况下,恶意攻击者可以利用潜在空间攻击常见的生成自编码器,同时我们通过实验还发现了生成自编码器与其确定性变体之间的差异,并考虑了在最坏情况容忍性和潜在代码解缠之间的潜在权衡。
Jul, 2023
该论文研究了 Variational Autoencoder (VAE) 的脆弱性,提出了使用 pullback metric tensor 和 robustness evaluation scores 评估 VAE 的鲁棒性,并且实验证明了 scores 与 VAE 的参数 $eta$ 相关联。
Aug, 2022
研究了变分自编码器(VAEs)对抗攻击和其他输入扰动的鲁棒性,提出了用于构建 VAEs 鲁棒性的新准则,并定义了在输入空间中的保证条件,VAEs 训练使用解缠方法得出的评分在我们的鲁棒性指标下表现良好,这些原因可以解释为我们理论结果的结果。
Jul, 2020
使用变分自编码器的防御策略抵御深度神经网络在图片分类任务中的对抗性攻击。这个防御系统具有灵活性、可学习分解表示以及基于像素块不需要针对不同尺寸的图片进行重新训练等特性,并在中度到严重的攻击情况下,明显胜过 JPEG 压缩及其最优参数,同时仍有提升空间。
Dec, 2018
本文提出了一种新的用于攻击自编码器(autoencoders)的方案,并设计了一个定量评估框架来评估攻击抵抗性。在三个常用数据集上,通过统计验证实验证明带有循环和注意力机制的 DRAW 模型具有更好的抵抗性,这对于自编码器在数据压缩方面的应用十分重要,并引起了更多人对于对抗攻击的关注。
Jun, 2018
本文介绍了一种利用变分自编码器 (VAE) 来解决深度神经网络 (DNN) 易受到针对性攻击的问题的方法,其关键是将鉴别模型与生成模型相结合,在先验分布中进行选择性分类,从而提高分类的准确性。
May, 2018
本研究针对变分自编码器(VAEs)的训练路径学问题进行了详细的探究,对其失败模式进行了具体的描述,并且将其与某些下游任务的不良影响联系起来。
Jul, 2020
本文提出了 Purifying Variational Autoencoder(PuVAE)这一方法来净化对抗样本,并在实验中展示该方法对各种攻击方法的鲁棒性展现了较高的性能,其推理时间大约比 Defense-GAN 这一当前最先进的净化模型快 130 倍。
Mar, 2019