用去噪漂移 GAN 解决生成学习三难问题
在这篇文章中,我们发现了扩散模型生成质量受到迭代次数限制的根本原因,并提出了一个简单而有效的解决方案来缓解这些影响。我们的解决方案可以应用于任何现有的扩散模型,并且在各种 SOTA 体系结构上运行多个数据集和配置进行实验和详尽的消融研究,证明能够立即提高它们的生成质量。
Mar, 2022
该论文介绍了一种使用预训练自编码器将图像压缩为紧凑的潜在空间的潜隐去噪扩散生成对抗网络(LDDGAN),以显著提高推断速度和图像质量,并提出了一种加权学习策略来增强多样性和图像质量。该模型在 CIFAR-10,CelebA-HQ 和 LSUN-Church 数据集上的实验结果证明了其在扩散模型中达到了最先进的运行速度。与其前身 DiffusionGAN 和 Wavelet Diffusion 相比,我们的模型在所有评估指标上都表现出了显著的改进。
Jun, 2024
该研究论文提出了一种基于扩散模型的合成逼真噪声的新方法,用于为困难获得真实数据的情景下的训练去噪模型提供大量高质量的数据,并在多个基准测试上证明了其方法的优越性.
May, 2023
通过在扩散模型中引入两个辨别器(扩散辨别器和频谱图辨别器),我们提出了一种音频合成模型,其在各项评估指标中均优于 FastSpeech2 和 DiffGAN-TTS,并通过结构相似性指数、梅尔倒谱失真、F0 均方根误差、短时客观可懂性、语音质量感知评估和主观平均意见得分等客观和主观度量对该模型进行了评估。
Aug, 2023
通过将去噪步骤直接整合到模型的架构中,本研究提出了一种新方法,将扩散模型与生成对抗网络结合起来,通过知识蒸馏实现更高效的训练和评估,从而减少了所需的参数和去噪步骤,提高了测试时的采样速度。
May, 2024
本篇论文介绍了一种新的技术,将多步去噪过程压缩为单步的知识蒸馏方法,从而提高图像生成的采样速度,且不需要对抗训练,通过在 CIFAR-10、CelebA 数据集上的实验表明,我们的去噪学生 Denoising Student 能够生成与 GANs 相当的高质量样本,并可扩展到更高像素的图像生成任务。
Jan, 2021
通过匹配隐式和显式因素,我们提出了一种新的方法,以解决生成模型中的采样难题,该方法利用隐式模型匹配噪声数据的边缘分布和前向扩散的显式条件分布,以有效地匹配联合降噪分布,并获得与扩散模型相当的生成性能和比采样步骤少的模型相比更好的结果。
Jun, 2023
通过在模型训练过程中加入约束条件使其生成的样本更符合所施加的约束,从而提高生成样本与约束的一致性,且相较于现有方法有更好的性能且不影响推断速度;该方法还可以自然地防止过拟合。
Mar, 2024
本文提出了一种基于扩散链的新型生成对抗网络 ——Diffusion-GAN,该网络通过将高斯分布的 “实例噪声” 注入到鉴别器以增加其稳定性,同时通过鉴别器的时步依赖策略给生成器提供一致有效的指导,从而使其在多个数据集上实现更高效、更稳定和更真实的图像生成能力。
Jun, 2022