Gang of GANs:带有最大间隔排名的生成对抗网络
本文提出了一种新的阶段式学习方法以训练生成对抗网络(GAN),称为 RankGAN,该方法在不改变网络架构的情况下逐渐加强鉴别器,并因此提高生成器的效率。本研究聚焦于 CelebA 数据集中的人脸图像,展示了在人脸生成和完成任务方面的视觉和数量上的改进,相比 WGAN 和 LSGAN 等其他 GAN 方法,它首先提出了用于 GAN 鉴别器的基于边缘的损失,并将其扩展到基于边缘的排名损失来训练 RankGAN 的多个阶段。
Dec, 2018
本文提出了一种名为 Mixture GAN (MGAN)的新方法,该方法采用多个生成器的混合训练,旨在克服 mode collapsing 问题,通过理论分析得出结论,证明了在平衡状态下,多个生成器的分布和数据分布之间的 Jensen-Shannon 差异最小,生成器之间的 Jensen-Shannon 差异最大,从而有效地避免了 mode collapsing 问题,能够在多项实验中取得明显的优势。
Aug, 2017
该论文提出了一个统一的框架来解释和证明采用梯度惩罚的生成式对抗网络(GANs)的有效性,该框架基于最大化期望的边界和采用 L-infinity 梯度范数和铰链损失惩罚方法对 GANs 进行优化会提高生成样本的质量并减少梯度消失等问题。
Oct, 2019
本文介绍了一种用于分析生成对抗网络的凸对偶框架,提出在约束条件为凸集时,通过最小化生成模型与经过判别器的数据分布匹配但是被期望的矩所限制的分布的 JS 散度,来得到生成模型。同时,将此框架应用于 f-GAN 和 Wasserstein GAN 网络,提出了一种新的混合 JS 散度和 Wasserstein 距离的分布度量用于正则化中。
Oct, 2018
本篇论文提出了一种基于随机投影的生成模型,该模型较传统的 GAN 模型更加稳定和精确,采用的 Wasserstein 距离作为度量计算生成样本的真实性,可以得到更准确的生成结果。
Mar, 2018
本研究讨论了与 G(生成器)相关的大多数损失函数的属性,表明这些损失函数并不是发散的,并且不具有发散的期望平衡。研究结果显示, GANs 不符合发散最小化理论,并且形成了比先前假设的模型更广泛的模型范围。
Sep, 2018
本论文介绍了生成对抗网络(GAN)模型的数学原理及其训练难度,引入了 Wasserstein GAN,采用一种平滑的度量方法来度量两个概率分布之间的距离,以提高 GAN 的训练效果。
Apr, 2019
本文提出了一种基于变分分析的生成对抗网络(GAN)的统一方法,讨论了在 $f$-divergence-minimizing GANs 和 IPM GANs 中的最优生成器,展示了基于分数匹配和流匹配的训练方法,以及判别器引导 Langevin 采样方法。
Jun, 2023
本文研究生成式对抗网络的一种成功变体 Wasserstein GANs,并证明在生成器为一层网络时,使用随机梯度上升下降法可以在多项式时间和样本复杂度内收敛到全局最优解。
Oct, 2019
本文提出了一种称为 KL-Wasserstein GAN 的新的生成对抗网络目标函数,这种方法基于 $f$-GANs 和 Wasserstein GANs 的批评家目标的推广,取得了在 CIFAR10 图像生成方面的新的最优成果。
Oct, 2019