本文从判别函数最优梯度含义化角度研究生成对抗网络 (GANs) 的收敛性,并表明通过添加 Lipschitz 约束可以消除由于梯度缺乏信息而导致的问题,因此提出了一类名为 Lipschitz GANs (LGANs) 的 GANs,实验证明 LGANs 的样本质量相较于 Wasserstein GANs 更高且更加稳定。
Feb, 2019
本文提出了一种使用正则化项的生成对抗网络(GANs)的训练方法,以加强 Lipschitz 限制约束,该方法通过实验数据验证其有效性。
Sep, 2017
本研究提出了 Gang of GANs (GoGAN) 方法,将 WGAN 的鉴别器损失推广到基于边界的方法,实现更好的生成器和较少的梯度消失、不稳定性和模式崩溃问题,并采用一种新的 GAN 质量测量方式,并在四个视觉数据集上进行了评估,相较于 WGAN 有了视觉和定量的改进。
Apr, 2017
本文介绍了一种用于分析生成对抗网络的凸对偶框架,提出在约束条件为凸集时,通过最小化生成模型与经过判别器的数据分布匹配但是被期望的矩所限制的分布的 JS 散度,来得到生成模型。同时,将此框架应用于 f-GAN 和 Wasserstein GAN 网络,提出了一种新的混合 JS 散度和 Wasserstein 距离的分布度量用于正则化中。
Oct, 2018
本研究讨论了与 G(生成器)相关的大多数损失函数的属性,表明这些损失函数并不是发散的,并且不具有发散的期望平衡。研究结果显示, GANs 不符合发散最小化理论,并且形成了比先前假设的模型更广泛的模型范围。
Sep, 2018
本文介绍了基于 GAN 的问题并提出了相应解决方案,使用了基于图片质量的评价算法 SSIM 和 NIQE 作为 GAN 正则化的指标,并提出了新的模型 WGAN-GP,在 CIFAR-10,STL10 和 CelebA 数据集上取得了最优性能。
Nov, 2019
该论文提出了一个统一的框架来解释和证明采用梯度惩罚的生成式对抗网络(GANs)的有效性,该框架基于最大化期望的边界和采用 L-infinity 梯度范数和铰链损失惩罚方法对 GANs 进行优化会提高生成样本的质量并减少梯度消失等问题。
Oct, 2019
提出了一种比传统的 WGAN 更好的 GAN 训练方法,使用正则化替代权重截取,通过惩罚评判器对其输入梯度的范数,可以实现各种 GAN 结构的稳定训练和高质量生成。
Mar, 2017
本文提出了一种理论框架,可以理解各种类型的生成对抗网络(GANs)的稳定性,并采用凸分析、最优传输和再现核等工具构建了一种可以同时满足这些条件的 GAN,解释并澄清了现有 GAN 稳定技术的必要性。
Feb, 2020
本文提出一种将 GAN 优化问题转化为广义变分不等式的方法,并借鉴数学规划方法,通过平均,外推以及过往外推等方法,扩展了变分不等式优化技术用于 GAN 的训练。
Feb, 2018