改进的Wasserstein GANs训练
本研究提出了Gang of GANs (GoGAN)方法,将WGAN的鉴别器损失推广到基于边界的方法,实现更好的生成器和较少的梯度消失、不稳定性和模式崩溃问题,并采用一种新的GAN质量测量方式,并在四个视觉数据集上进行了评估,相较于WGAN有了视觉和定量的改进。
Apr, 2017
本文提出了一种创新的方法来强制实现WGAN的训练过程中的Lipschitz连续性,并与最近的半监督学习方法之一进行了无缝连接,导致不仅产生比以前方法更好的照片真实样本,而且还出现了最新的半监督学习结果,其中我们的方法在仅使用1,000个CIFAR-10图像时产生了超过5.0的Inception分数,并且在仅使用4,000个标记图像的情况下超过90%的CIFAR-10数据集的精度,是我们所知道的第一个实现此结果的方法。
Mar, 2018
本篇论文提出了一种基于随机投影的生成模型,该模型较传统的GAN模型更加稳定和精确,采用的Wasserstein距离作为度量计算生成样本的真实性,可以得到更准确的生成结果。
Mar, 2018
本文从判别函数最优梯度含义化角度研究生成对抗网络 (GANs) 的收敛性,并表明通过添加 Lipschitz 约束可以消除由于梯度缺乏信息而导致的问题,因此提出了一类名为 Lipschitz GANs (LGANs) 的 GANs,实验证明 LGANs 的样本质量相较于 Wasserstein GANs 更高且更加稳定。
Feb, 2019
本研究提出了一种名为Adversarial Lipschitz Regularization的方法,其可行地利用了显式的Lipschitz惩罚,并在训练Wasserstein GANs时表现出与隐式惩罚相同的性能表现,凸显了Lipschitz 正则化和对抗性训练之间的重要联系。
Jul, 2019
本文提出了一种称为KL-Wasserstein GAN的新的生成对抗网络目标函数,这种方法基于$f$-GANs和Wasserstein GANs的批评家目标的推广,取得了在CIFAR10图像生成方面的新的最优成果。
Oct, 2019
本文针对Wasserstein GAN在现实中实现的不足,提出了一种更加松弛的Sobolev对偶方法,使得优化中的Lipschitz约束不再强制,该方法被命名为Sobolev Wasserstein GAN(SWGAN),实验表明其优于传统方法。
Dec, 2020
我们对Wasserstein GANs进行了深入的数学分析,发现WGAN损失并不是Wasserstein距离的一个有意义的近似,而且Wasserstein距离对深度生成模型而言不是一个理想的损失函数,Wasserstein GANs之所以成功,实际上是由于对Wasserstein距离的近似失败所致。
Mar, 2021
生成对抗网络(GANs)和Wasserstein GANs之间的关系及其在概率分布估计中的应用进行研究,其中重点研究了维数降低特性、Oracle不等式和Lipschitz函数的近似收敛性。
Mar, 2024