潜在扩散模型的鲁棒性
论文介绍一种新型的对抗攻击方法 DiffAttack,该方法利用扩散模型的生成和判别能力,在隐空间中生成人类感知不到的、带有语义线索的扰动,并采用内容保持结构。考虑到攻击的传递性,DiffAttack 进一步 “欺骗” 扩散模型,以分散其注意力,达到更好的转移性能,实验结果表明,DiffAttack 在各种模型结构和防御方法下具有更高的攻击成功率。
May, 2023
通过引入全面的理论框架并提出新的对抗性攻击方法,本文对基于 LDM 的对抗性攻击进行了深入研究,通过严格的实验,证明该方法优于现有攻击方法,并能在不同的基于 LDM 的少样本生成流程中进行泛化,成为在新一代强大生成模型中可为暴露于数据隐私和安全风险中的人们提供更强大和高效的保护工具。
Oct, 2023
通过在预训练的自编码器的潜在空间中应用扩散模型,引入交叉注意力层到模型体系结构中,以更少的计算要求取得接近最优的性能,实现高分辨率合成,缩小像素级 DMs 对计算资源的需求。
Dec, 2021
研究训练以潜在空间作为输入的 LDM 的方法,与传统的 Diffusion Models 相比,通过使用预训练的自动编码器将高维像素空间降为低维潜在空间,大大提高了训练效率,并使用隐私保护的方式对不同维度的注意力模型进行训练以减少可调参数,最终的实验结果表明该方法在生成高质量合成图像时表现突出。
May, 2023
本研究介绍了一种基于文本的图像编辑方法,利用最新的扩散模型对一些基于文本主题的地方图像进行编辑,通过结合扩散模型的速度和 Blended Diffusion,提高了编辑的效率,并通过优化方法来解决扩散模型无法完美重建图像的问题,实现了比当前方法更高的精度和速度
Jun, 2022
通过对扩散模型中的对抗性示例进行研究,我们发现扩散模型在像素空间中对抗性示例 (即 PDMs) 具有较强的鲁棒性,并可用作有效去除对 LDMs 生成的对抗性模式的净化器,使得现有的多种保护方法在一定程度上无法有效保护我们的图像。
Apr, 2024
本文探讨了如何在 Denoising Diffusion Models 的 latent space 中嵌入图像,实现对噪声图像的去噪,并发现了该类生成模型中 latent representation 独立于反扩散过程网络实现的网络结构。
Dec, 2022
最近的研究表明,深度神经网络对于对抗性攻击很容易受到攻击,而精心训练的样本或补丁可以欺骗神经网络检测器或人类视觉感知。为了解决这个问题,本文提出了一种名为潜在扩散补丁(LDP)的新型对抗性补丁方法,首先设计了一个预训练的编码器将自然图像压缩到具有关键特征的特征空间,然后使用上述特征空间训练扩散模型,最后通过图像去噪技术探索预训练扩散模型的潜在空间,通过扩散模型的强大的自然能力对补丁和图像进行改进,使它们更容易被人类视觉系统接受。实验结果在数字和物理世界中均表明,LDP 在视觉主观评分上达到了 87.3%,同时仍然保持有效的攻击能力。
Dec, 2023
该研究论文提出了一种统一的框架 Adv-Diffusion,可以在潜在空间而不是原始像素空间中生成不可感知的对抗性身份扰动,利用潜在扩散模型的强大修补能力生成逼真的对抗性图像。通过在周围环境中生成语义扰动的身份敏感条件扩散生成模型,设计了自适应强度的对抗性扰动算法,既能确保攻击的可传递性又能保持隐秘性。在公开的 FFHQ 和 CelebA-HQ 数据集上进行了广泛的定性和定量实验,证明该方法在没有额外的生成模型训练过程的情况下取得了卓越的性能。源代码可在此链接中获取。
Dec, 2023