采用扩散模型集成编码器和无条件扩散模型的得分函数,消除了 VAE 图像模糊的问题,并显著提高了性能。
Apr, 2023
提出了一种新的生成框架 DiffuseVAE,它将 VAE 与扩散建模框架相结合,为扩散模型提供了低维的 VAE 学习到的潜在代码,从而能够用于控制合成等下游任务,并且在速度与质量的平衡方面比标准无条件 DDPM / DDIM 模型要好,同时表现出与最先进的模型可比的综合质量,还显示出天生的对不同类型的噪声具有泛化能力。
Jan, 2022
通过引入可学习的编码器 - 解码器,DiLED 广义扩展了常规扩散过程的高斯噪声去噪方法,在不同数据类型上具有广泛适用性和提升性能。实验证明 DiLED 在处理各种数据和任务上都有很好的灵活性,并在不同已有模型上取得了显著的改进。
Feb, 2024
我们提出了去噪扩散变分推断(DDVI)算法,它是一种基于扩散模型作为表达性变分后验的潜变量模型的近似推断算法。我们的方法通过辅助潜变量来增强变分后验,从而得到一类表达性模型,通过反转用户指定的噪声过程在潜变量空间中进行扩散。通过优化受 wake-sleep 算法启发的边缘似然的一种新的下界,我们拟合这些模型。我们的方法易于实现(它适用于正则化的 ELBO 进一步扩展),与黑盒变分推断兼容,并且优于基于归一化流或对抗网络的替代近似后验类别。当应用于深层潜变量模型时,我们的方法得到了去噪扩散 VAE(DD-VAE)算法。我们将该算法应用于生物学中的一个激励任务 -- 从人类基因组推断潜在祖先 -- 在 Thousand Genomes 数据集上优于强基线模型。
Jan, 2024
通过使用预训练的扩散模型生成的样本进行训练,可以有效减轻变分自动编码器中的过拟合问题,并且表现出更好的泛化性能、缩小的模型猜测效应和更强的鲁棒性。
Oct, 2023
本研究提出了一种 条件去噪扩散模型 以应对生成敌对网络和变分自编码器在顺序推荐任务中的挑战,通过将过程分成易于处理的步骤来简化优化和推荐任务,同时采用新的优化模式,模型能够生成高质量的序列 / 项目表示并防止折叠
该研究提出了一种使用 VQ-VAE 和扩散解码器的 DiVAE 图像生成模型,相关实验结果表明该模型能够生成高度逼真的图像,特别适用于条件综合任务。
Jun, 2022
本文中,我们在变分和基于分数的透视下回顾,阐释和统一了扩散模型的理解。我们提出了变分扩散模型(VDM),并证明优化 VDM 归结为学习神经网络来预测原始源输入,原始源噪声或噪声输入的分数函数。最后,我们介绍了如何使用扩散模型通过引导来学习条件分布。
Aug, 2022
本文通过将训练步骤分为两个阶段来解决 KL - 消失问题,采用多层感知器对高斯噪声进行变换来对潜在变量进行采样,从而实现更灵活的分布,实验结果表明,我们的模型在度量和人类评估方面都有大幅度提高。
Feb, 2018
通过引入多元学习自适应噪声 (MuLAN),这篇研究提出了一种新的扩散过程,它在图像中以不同的速率应用高斯噪声,以实现贝叶斯推断,获得更紧的边际似然下界,并在 CIFAR-10 和 ImageNet 数据集上实现了密度估计的最新技术。
Dec, 2023