通过不变统计损失训练隐式生成模型
本文提出使用Lipschitz正则化理论构建的LS-GAN,进一步以该理论为基础,提出了GLS-GAN,得到了很好的实验结果,同时还扩展到了条件形式,表现出色于图像分类任务中。
Jan, 2017
本篇论文提供了一个新的原则,即利用生成模型的层次结构将自编码器与生成对抗网络相结合,以防止学习到的生成模型中的模式崩溃,并使用区分器学习合成可能性和隐式后验分布。
Jun, 2017
提出了一种新的“不变编码生成式对抗网络”(IVE-GANs)框架,利用特定数据的不变特征进行逆向映射,使生成器可以涵盖更多数据模式并提升生成效果和表示能力,并在多个数据集上进行了验证。
Nov, 2017
本篇论文提出了一种基于随机投影的生成模型,该模型较传统的GAN模型更加稳定和精确,采用的Wasserstein距离作为度量计算生成样本的真实性,可以得到更准确的生成结果。
Mar, 2018
本文提出了一种基于特征函数距离(Characteristic Function Distance)的新颖的隐式生成模型评价方法,可用于无监督图像生成,并在实验中表现出优于WGAN和MMD-GAN变体的性能。
Sep, 2019
本文研究了生成对抗网络(GAN)如何从有限样本中学习概率分布,得到了GAN在一组H"older类定义的积分概率度量下的收敛速度和Wasserstein距离特殊情况下的学习率,并证明了当网络结构适当选择时,GAN能够自适应地学习低维结构或具有H"older密度的数据分布。特别是对于集中在低维集合周围的分布,我们展示了GAN的学习速率不取决于高环境维度,而取决于较低的内在维度。我们的分析基于一种新的神谕不等式,将估计误差分解为生成器和鉴别器逼近误差和统计误差,这可能是具有独立研究价值的。
May, 2021
引入了一种统一的α参数化生成器损失函数,用于一种双目标生成对抗网络(GAN),其使用经典鉴别器损失函数,例如原始GAN(VanillaGAN)系统中的损失函数。生成器损失函数基于对称类概率估计类型函数L_α,得到的GAN系统称为L_α-GAN。在最优鉴别器下,证明了生成器的优化问题包括最小化Jensen-f_α-分歧,这是Jensen-Shannon分歧的自然推广,其中f_α是用损失函数L_α表示的凸函数。还证明了这个L_α-GAN问题作为文献中一些GAN问题的特例,包括VanillaGAN、最小二乘GAN(LSGAN)、最小k阶GAN(LkGAN)和最近引入的(αD,αG)-GAN(其中αD=1)。最后,在三个数据集MNIST、CIFAR-10和Stacked MNIST上进行实验,以说明各种示例的L_α-GAN系统的性能。
Aug, 2023
尽管生成对抗网络(GANs)在实证方面取得了显著的成功,但其统计准确性的理论保证仍然相对悲观。本论文试图在理论和GANs以及双向GANs(BiGANs)的实践之间架起桥梁,通过推导出关于估计密度的统计保证,以数据的固有维度和潜在空间为基础。
Jan, 2024
本研究解决了传统隐式生成模型在处理重尾和多元数据分布时的不稳定训练和模式丢失问题。通过引入基于不变统计损失的方法,本文提出了一种名为Pareto-ISL的新生成方案,能够有效捕捉数据分布的尾部特征及中心特性。实验结果表明,该方法在多维生成建模中表现出强大的稳健性,为生成对抗网络的预训练提供了有效技术支持。
Oct, 2024