本文提出了一种基于变分分析的生成对抗网络(GAN)的统一方法,讨论了在 $f$-divergence-minimizing GANs 和 IPM GANs 中的最优生成器,展示了基于分数匹配和流匹配的训练方法,以及判别器引导 Langevin 采样方法。
Jun, 2023
本文提出了一种称为 KL-Wasserstein GAN 的新的生成对抗网络目标函数,这种方法基于 $f$-GANs 和 Wasserstein GANs 的批评家目标的推广,取得了在 CIFAR10 图像生成方面的新的最优成果。
Oct, 2019
本文提出 Fisher GAN 并在图像生成和半监督分类中验证了其可靠性,Fisher GAN 是一种在 Integral Probability Metrics 框架内的 GAN 训练方法,其判别器使用了数据相关的约束。
May, 2017
本文对生成对抗网络(GAN)进行了分析,特别是统计推理这一过程的理论特征,提出了一种简单形式的 GAN,称为受限 f-GANs,发现线性 KL-GANs 的最优生成器所推断出的分布是最大似然与矩法解的有趣组合。
Sep, 2018
本文研究了生成对抗网络(GAN)如何从有限样本中学习概率分布,得到了 GAN 在一组 H"older 类定义的积分概率度量下的收敛速度和 Wasserstein 距离特殊情况下的学习率,并证明了当网络结构适当选择时,GAN 能够自适应地学习低维结构或具有 H"older 密度的数据分布。特别是对于集中在低维集合周围的分布,我们展示了 GAN 的学习速率不取决于高环境维度,而取决于较低的内在维度。我们的分析基于一种新的神谕不等式,将估计误差分解为生成器和鉴别器逼近误差和统计误差,这可能是具有独立研究价值的。
May, 2021
本研究讨论了与 G(生成器)相关的大多数损失函数的属性,表明这些损失函数并不是发散的,并且不具有发散的期望平衡。研究结果显示, GANs 不符合发散最小化理论,并且形成了比先前假设的模型更广泛的模型范围。
本文研究发现,通过针对特定生成器选择具有强鉴别能力的鉴别器以学习 Wasserstein 距离下(或者在很多情况下是 KL 散度下)的分布,一定能以多项式复杂度学习,从而解决了 GANs 过于简单导致模式严重缺失的问题。
Jun, 2018
本文介绍了一种用于分析生成对抗网络的凸对偶框架,提出在约束条件为凸集时,通过最小化生成模型与经过判别器的数据分布匹配但是被期望的矩所限制的分布的 JS 散度,来得到生成模型。同时,将此框架应用于 f-GAN 和 Wasserstein GAN 网络,提出了一种新的混合 JS 散度和 Wasserstein 距离的分布度量用于正则化中。
Oct, 2018
本文研究了生成对抗网络在逼近目标分布时的两个基本问题:限制鉴别器家族对近似质量的影响和不同目标函数的收敛条件与分布收敛之间的关系。定义了对抗分歧的概念,证明了使用受限制的鉴别器家族具有矩匹配效应,并且对于严格对抗性分歧的目标函数,证明了目标函数上的收敛蕴含着弱收敛。
基于生成对抗网络和类概率估计,本研究探讨了在训练和推广误差方面的估计和界限,并引入了双目标生成对抗网络来处理训练的不稳定性问题。
Oct, 2023