本文通过导出一个变分框架来推导连续时间生成扩散理论,并表明该理论中最小化匹配得分损失等价于最大化该理论内所提出的可逆 SDE 插件的似然度的下限。
Jun, 2021
扩散模型和表示学习之间的相互作用进行了综述,包括数学基础、去噪网络架构和引导方法等方面,阐述了与扩散模型和表示学习相关的各种方法,并提出了对扩散模型和表示学习分类的综合概述以及现有关注点和潜在研究领域。
Jun, 2024
基于得分扩散模型的监督式学习框架用于训练生成模型,并通过生成标记数据解决了无监督训练中的问题,提高了采样效率和神经网络训练的时间节省。
Oct, 2023
本文提出了一种基于预训练变分自编码器的离散领域参数化的扩散模型训练技术,用于离散和连续领域的生成导致更优结果,并在应用于符号音乐领域时表现出很强的无条件生成和条件填充结果,相比基于自回归语言模型的连续嵌入操作更具可行性。
Mar, 2021
本文探讨了使用一种单一的预训练阶段进行生成性和判别性任务的统一表征学习器 —— 扩散模型,并发现这种模型在图像分类任务中具有优异的性能,特别是在经过精心特征选择和池化的情况下,扩散模型明显优于 BigBiGAN 等其他可比较的生成 - 判别方法
Jul, 2023
通过在预训练的自编码器的潜在空间中应用扩散模型,引入交叉注意力层到模型体系结构中,以更少的计算要求取得接近最优的性能,实现高分辨率合成,缩小像素级 DMs 对计算资源的需求。
Dec, 2021
本文使用受非平衡热力学考虑的潜变量模型 —— 扩散概率模型,提出了高质量的图像合成结果。通过根据扩散概率模型和 Langevin 动力学的去噪得分匹配之间的新颖联系设计加权变分界限进行训练,获得了最佳结果;此外,我们的模型自然地采用渐进式有损解压缩方案,可以解释为自回归解码的一般化。在无条件的 CIFAR10 数据集上,我们获得了 9.46 的 Inception 得分和 3.17 的最先进的 FID 得分。在 256x256 LSUN 上,我们获得了与 ProgressiveGAN 相似的样本质量。
Jun, 2020
我们研究了最初用于图像生成的去噪扩散模型(DDM)的表示学习能力。我们的研究目的是逐步分解 DDM,将其转化为经典的去噪自编码器(DAE)。我们观察到现代 DDM 的很少组件对于学习良好的表示是至关重要的,而许多其他组件则不是必要的。我们的研究最终提出了一种高度简化并在很大程度上类似于经典 DAE 的方法。我们希望我们的研究能够在现代自监督学习领域重新激发对经典方法家族的兴趣。
Jan, 2024
通过基于分数的逆扩散算法生成的高质量样本提供了证据,表明尽管遭受维度灾难的困扰,用于降噪训练的深度神经网络(DNN)可以学习高维密度。然而,关于训练集记忆化的最近报导引发了一个问题,即这些网络是否正在学习数据的 “真实” 连续密度。在本文中,我们展示了在非重叠的数据集子集上训练的两个降噪 DNN 学习到几乎相同的评分函数,从而学习到相同的密度,并且只需要非常少的训练图像。这种强大的泛化表明 DNN 架构和 / 或训练算法中的强大归纳偏差与数据分布的特性相一致。我们通过对这些内容进行分析来证明这一点,证明了去噪器在适应底层图像的基础上执行了一个收缩操作。对这些基础的检查揭示了轮廓线和均匀图像区域中的振荡谐波结构。我们通过证明即使在训练于低维流形等图像类别的情况下,这些经过训练的去噪器也会生成这种几何自适应谐波表示来表明它们在归纳偏差方面具有偏好。此外,我们还展示了当在已知最优基础为几何自适应谐波的常规图像类别上进行训练时,网络的去噪性能接近最优。
利用深度神经网络来近似评分函数的效率在基于扩散的生成建模中进行了研究,我们观察到评分函数可以通过变分推断去噪算法在图模型中得到较好的近似,同时这些算法适用于高效的神经网络表示,通过示例验证了这一观察,并结合离散化误差界限为基于扩散的生成建模提供了有效的样本复杂度界限。
Sep, 2023