采用扩散模型集成编码器和无条件扩散模型的得分函数,消除了 VAE 图像模糊的问题,并显著提高了性能。
Apr, 2023
本文提出了一种基于现有预训练 DPM 模型的图像重建通用方法 PDAE,实现了比 Diff-AE 更好的训练效率和性能,并通过对分类器引导采样的机制填补信息缺失的空隙,使编码器对图像进行更好的重建,表现出了较高的有效性、效率和灵活性。
Dec, 2022
提出了一种新的生成框架 DiffuseVAE,它将 VAE 与扩散建模框架相结合,为扩散模型提供了低维的 VAE 学习到的潜在代码,从而能够用于控制合成等下游任务,并且在速度与质量的平衡方面比标准无条件 DDPM / DDIM 模型要好,同时表现出与最先进的模型可比的综合质量,还显示出天生的对不同类型的噪声具有泛化能力。
Jan, 2022
本文提出一种方法,将变分自编码器和生成对抗网络与扩散映射相结合,创建了一个继承扩散映射渐近保证的生成模型,同时保持深度模型的可扩展性。
May, 2019
用两种改进的扩散模型,DiffEnc 和具有权重参数的扩散损失方法,实现了最先进的 CIFAR-10 评估结果,同时探索了有限深度层次结构和无限深度层次结构中扩散模型的性质。
Oct, 2023
利用预测时间下一节点以及基于时间平滑性的模型选择度量,我们提出了一种能够减轻 VAE 学习虚假特征,并能在合成数据集中准确恢复潜在因素的 VAE 架构。
Dec, 2023
通过引入可学习的编码器 - 解码器,DiLED 广义扩展了常规扩散过程的高斯噪声去噪方法,在不同数据类型上具有广泛适用性和提升性能。实验证明 DiLED 在处理各种数据和任务上都有很好的灵活性,并在不同已有模型上取得了显著的改进。
Feb, 2024
本文对可变自编码器 (VAE) 拓展至处理序列数据的方法进行了综述,提出并讨论了动态变分自编码器 (DVAEs) 这一类模型,详细介绍了七种 DVAE 模型,并通过语音分析 - 重构任务的实验基准进行了验证,最后探讨了 DVAE 模型的重要问题和未来的研究方向。
Aug, 2020
该研究提出了一种使用 VQ-VAE 和扩散解码器的 DiVAE 图像生成模型,相关实验结果表明该模型能够生成高度逼真的图像,特别适用于条件综合任务。
Jun, 2022
扩散模型以及自动生成的神经网络参数,通过混合使用自动编码器和标准潜在扩散模型,从训练网络参数的随机噪声中合成潜在参数表示,并生成具有可用性的新的网络参数子集,从而稳定地提升性能。