使用最先进的扩散模型生成额外的训练数据可以极大地提高敌对训练的鲁棒性,该方法同样可以明显提高确定性认证防御的鲁棒性,我们还提供了一些建议来扩展认证训练方法的鲁棒性。
May, 2023
本文描述了一种更高效的迭代隐式概率模型 —— 去噪扩散隐式模型(DDIMs),通过构建一类非马尔科夫扩散过程来加速采样过程,相对于去噪扩散概率模型(DDPMs)可以使采样速度提升 10 倍至 50 倍。这种模型可以用于图像生成和语义意义化的图像内插。
Oct, 2020
本文介绍了一种基于 Markovian 过程的 Upsampling Diffusion Probabilistic Model(UDPM),相较于传统的 Denoising Diffusion Probabilistic Models(DDPM),它在降低潜变量维度的同时,仅需 7 个扩散步骤即可生成 $256 imes 256$ 的高清图像。
通过对 DDPM 模型进行简单修改,可以在保持高质量样本的同时达到具有竞争力的对数似然值,并学习反向扩散过程的方差,从而使用数量级更少的正向传递采样。使用精度和召回率比较 DDPM 和 GAN 模型的性能,并证明这些模型的样本质量和似然值可以与模型容量和训练计算平稳地提高。
Feb, 2021
本文介绍了直接去噪扩散模型(DDDM):一种生成逼真图像的简单且通用方法,具有少步采样的特点,同时保留了多步采样以获得更好的性能。DDDM 不需要精心设计的采样器或预训练的蒸馏模型,而是以自身的先前训练迭代生成的估计目标为条件进行扩散模型的训练,通过考虑前一时间步生成的样本来引导迭代生成过程。我们还提出了 Pseudo-LPIPS,一种对各种超参数值更鲁棒的新型度量损失。尽管简单,该方法在基准数据集上表现出强大的性能。我们的模型在 CIFAR-10 上分别以一步采样和两步采样的 FID 分数为 2.57 和 2.33,超越了 GAN 和蒸馏基模型获得的分数。通过将采样扩展到 1000 步,我们将 FID 分数进一步降低到 1.79,与文献中的最先进方法相一致。在 ImageNet 64x64 上,我们的方法与主要模型相当。
May, 2024
通过将去噪步骤直接整合到模型的架构中,本研究提出了一种新方法,将扩散模型与生成对抗网络结合起来,通过知识蒸馏实现更高效的训练和评估,从而减少了所需的参数和去噪步骤,提高了测试时的采样速度。
本文提出了一种鲁棒扩散分类器 (Robust Diffusion Classifier, RDC),它是一个基于预训练扩散模型构建的生成分类器,可以更好地应对未知威胁并实现识别准确率的提高
Fast-DDPM 是一种简单而有效的方法,可同时提高训练速度、采样速度和生成质量,通过仅使用 10 个时间步进行训练和采样,相比 DDPM,Fast-DDPM 能够在医学图像生成任务中优于基于卷积网络和生成对抗网络的当前最先进方法,并将训练时间缩短了 5 倍,采样时间缩短了 100 倍。
在这篇论文中,我们提出了一种统一框架 DiffAttack,用于对基于扩散的净化防御进行有效和高效的攻击,包括 DDPM 和基于分数的方法。我们通过在中间扩散步骤引入偏差重建损失来解决梯度消失 / 爆炸问题,提供了一种分段转发 - 反向传播算法,通过降低模型的稳健性减少了针对 CIFAR-10 和 ImageNet 的攻击的准确性。
Oct, 2023
通过对扩散模型中的对抗性示例进行研究,我们发现扩散模型在像素空间中对抗性示例 (即 PDMs) 具有较强的鲁棒性,并可用作有效去除对 LDMs 生成的对抗性模式的净化器,使得现有的多种保护方法在一定程度上无法有效保护我们的图像。
Apr, 2024