Wasserstein GAN可以执行PCA
本文比较了在单幅图像超分辨率上使用Wasserstein距离和其他训练目标时,各种GAN架构的表现,结果表明,带梯度惩罚的Wasserstein GAN(WGAN-GP)提供了稳定且收敛的GAN训练,Wasserstein距离是衡量训练进展的有效指标。
May, 2017
本文研究了生成对抗网络在高维高斯数据下的建模、鲁棒性以及泛化能力,并提出了一种能快速推广、拥有全局稳定性的 GAN 结构模型,最终利用模型设计实现了 GAN 在复杂数据下的应用。
Oct, 2017
本文通过基于正则化最优传输的平滑Wasserstein GAN公式实现梯度信息的获取,从而实现对该目标函数的一阶优化,为一类生成对抗网络优化算法建立了理论收敛保证,且仅需要解决鉴别器问题以近似最优。该算法计算效率高,应用于MNIST数字以及CIFAR-10图像数据集相比其他同等架构和计算能力的算法生成的图像效果显著。
Feb, 2018
本文提出了一种创新的方法来强制实现WGAN的训练过程中的Lipschitz连续性,并与最近的半监督学习方法之一进行了无缝连接,导致不仅产生比以前方法更好的照片真实样本,而且还出现了最新的半监督学习结果,其中我们的方法在仅使用1,000个CIFAR-10图像时产生了超过5.0的Inception分数,并且在仅使用4,000个标记图像的情况下超过90%的CIFAR-10数据集的精度,是我们所知道的第一个实现此结果的方法。
Mar, 2018
本篇论文提出了一种基于随机投影的生成模型,该模型较传统的GAN模型更加稳定和精确,采用的Wasserstein距离作为度量计算生成样本的真实性,可以得到更准确的生成结果。
Mar, 2018
本文提出了一种称为KL-Wasserstein GAN的新的生成对抗网络目标函数,这种方法基于$f$-GANs和Wasserstein GANs的批评家目标的推广,取得了在CIFAR10图像生成方面的新的最优成果。
Oct, 2019
我们对Wasserstein GANs进行了深入的数学分析,发现WGAN损失并不是Wasserstein距离的一个有意义的近似,而且Wasserstein距离对深度生成模型而言不是一个理想的损失函数,Wasserstein GANs之所以成功,实际上是由于对Wasserstein距离的近似失败所致。
Mar, 2021
通过凸对偶的方法分析了两层神经网络判别器的Wasserstein GAN的训练,展现了Wasserstein GAN在哪些条件下可以通过凸优化完全解决以及可以被表示为凸凹博弈,证明了这个凸对偶解释的威力,并在CelebA图像生成中用于线性生成器和二次激活判别器的渐进式训练。
Jul, 2021
尽管生成对抗网络(GANs)在实证方面取得了显著的成功,但其统计准确性的理论保证仍然相对悲观。本论文试图在理论和GANs以及双向GANs(BiGANs)的实践之间架起桥梁,通过推导出关于估计密度的统计保证,以数据的固有维度和潜在空间为基础。
Jan, 2024
生成对抗网络(GANs)和Wasserstein GANs之间的关系及其在概率分布估计中的应用进行研究,其中重点研究了维数降低特性、Oracle不等式和Lipschitz函数的近似收敛性。
Mar, 2024