本研究探索了 Wasserstein 生成对抗网络在巴拿赫空间中引入梯度惩罚后的理论扩展和一些具体选择的基础点,重点关注 Sobolev 范数,并在 CIFAR-10 和 CelebA 中展示了性能提升。
Jun, 2018
本文提出了一种使用正则化项的生成对抗网络(GANs)的训练方法,以加强 Lipschitz 限制约束,该方法通过实验数据验证其有效性。
Sep, 2017
本文针对 Wasserstein GAN 在现实中实现的不足,提出了一种更加松弛的 Sobolev 对偶方法,使得优化中的 Lipschitz 约束不再强制,该方法被命名为 Sobolev Wasserstein GAN(SWGAN),实验表明其优于传统方法。
Dec, 2020
本篇论文提出了一种基于随机投影的生成模型,该模型较传统的 GAN 模型更加稳定和精确,采用的 Wasserstein 距离作为度量计算生成样本的真实性,可以得到更准确的生成结果。
Mar, 2018
我们对 Wasserstein GANs 进行了深入的数学分析,发现 WGAN 损失并不是 Wasserstein 距离的一个有意义的近似,而且 Wasserstein 距离对深度生成模型而言不是一个理想的损失函数,Wasserstein GANs 之所以成功,实际上是由于对 Wasserstein 距离的近似失败所致。
Mar, 2021
本文比较了在单幅图像超分辨率上使用 Wasserstein 距离和其他训练目标时,各种 GAN 架构的表现,结果表明,带梯度惩罚的 Wasserstein GAN(WGAN-GP)提供了稳定且收敛的 GAN 训练,Wasserstein 距离是衡量训练进展的有效指标。
May, 2017
本文提出了一种称为 KL-Wasserstein GAN 的新的生成对抗网络目标函数,这种方法基于 $f$-GANs 和 Wasserstein GANs 的批评家目标的推广,取得了在 CIFAR10 图像生成方面的新的最优成果。
Oct, 2019
本文研究了生成对抗网络(GAN)如何从有限样本中学习概率分布,得到了 GAN 在一组 H"older 类定义的积分概率度量下的收敛速度和 Wasserstein 距离特殊情况下的学习率,并证明了当网络结构适当选择时,GAN 能够自适应地学习低维结构或具有 H"older 密度的数据分布。特别是对于集中在低维集合周围的分布,我们展示了 GAN 的学习速率不取决于高环境维度,而取决于较低的内在维度。我们的分析基于一种新的神谕不等式,将估计误差分解为生成器和鉴别器逼近误差和统计误差,这可能是具有独立研究价值的。
May, 2021
本论文介绍了生成对抗网络(GAN)模型的数学原理及其训练难度,引入了 Wasserstein GAN,采用一种平滑的度量方法来度量两个概率分布之间的距离,以提高 GAN 的训练效果。
Apr, 2019
尽管生成对抗网络(GANs)在实证方面取得了显著的成功,但其统计准确性的理论保证仍然相对悲观。本论文试图在理论和 GANs 以及双向 GANs(BiGANs)的实践之间架起桥梁,通过推导出关于估计密度的统计保证,以数据的固有维度和潜在空间为基础。
Jan, 2024