数据内插值 —— 高阶梯度正则化 GAN 中的判别器
本文研究发现,通过针对特定生成器选择具有强鉴别能力的鉴别器以学习 Wasserstein 距离下(或者在很多情况下是 KL 散度下)的分布,一定能以多项式复杂度学习,从而解决了 GANs 过于简单导致模式严重缺失的问题。
Jun, 2018
本文从判别函数最优梯度含义化角度研究生成对抗网络 (GANs) 的收敛性,并表明通过添加 Lipschitz 约束可以消除由于梯度缺乏信息而导致的问题,因此提出了一类名为 Lipschitz GANs (LGANs) 的 GANs,实验证明 LGANs 的样本质量相较于 Wasserstein GANs 更高且更加稳定。
Feb, 2019
本文介绍了 PolyGAN,它使用高阶多项式作为数据生成器,并通过使用两种张量分解来减少参数数量并展示了如何有效地实现分层神经网络,从而在不使用激活函数的情况下逼近数据分布,该方法在合成和真实数据(图像和 3D 点云)上的实验评估证明了 PolyGAN 相对于现有技术的优点。
Aug, 2019
本研究提出了一种名为 Adversarial Lipschitz Regularization 的方法,其可行地利用了显式的 Lipschitz 惩罚,并在训练 Wasserstein GANs 时表现出与隐式惩罚相同的性能表现,凸显了 Lipschitz 正则化和对抗性训练之间的重要联系。
Jul, 2019
研究了在生成对抗网络中使用相对论鉴别器的优势,在此基础上提出了 Relativistic GANs 和 Relativistic average GANs 模型,并发现相对于传统模型,它们能够更加稳定地生成高质量的图像。
Jul, 2018
通过凸对偶的方法分析了两层神经网络判别器的 Wasserstein GAN 的训练,展现了 Wasserstein GAN 在哪些条件下可以通过凸优化完全解决以及可以被表示为凸凹博弈,证明了这个凸对偶解释的威力,并在 CelebA 图像生成中用于线性生成器和二次激活判别器的渐进式训练。
Jul, 2021
为了提高 GAN 训练的稳定性,本文提出了隐式竞争规则作为稳定 GAN 的一种解决方法,该方法可通过对生成器和鉴别器的对抗建模来显著增强隐式竞争规则,提升 WGAN-GP 的 inception score,实现无显式正则化的高效 GAN 训练。
Oct, 2019
该论文提出了一个统一的框架来解释和证明采用梯度惩罚的生成式对抗网络(GANs)的有效性,该框架基于最大化期望的边界和采用 L-infinity 梯度范数和铰链损失惩罚方法对 GANs 进行优化会提高生成样本的质量并减少梯度消失等问题。
Oct, 2019
本文提出了一种使用正则化项的生成对抗网络(GANs)的训练方法,以加强 Lipschitz 限制约束,该方法通过实验数据验证其有效性。
Sep, 2017
本篇论文提出了一种基于随机投影的生成模型,该模型较传统的 GAN 模型更加稳定和精确,采用的 Wasserstein 距离作为度量计算生成样本的真实性,可以得到更准确的生成结果。
Mar, 2018