基于粒子距离 GAN 的稳定性分析框架和 Wasserstein 梯度流
本篇论文提出了一种基于随机投影的生成模型,该模型较传统的 GAN 模型更加稳定和精确,采用的 Wasserstein 距离作为度量计算生成样本的真实性,可以得到更准确的生成结果。
Mar, 2018
本文比较了在单幅图像超分辨率上使用 Wasserstein 距离和其他训练目标时,各种 GAN 架构的表现,结果表明,带梯度惩罚的 Wasserstein GAN(WGAN-GP)提供了稳定且收敛的 GAN 训练,Wasserstein 距离是衡量训练进展的有效指标。
May, 2017
本文研究了生成对抗网络(GAN)如何从有限样本中学习概率分布,得到了 GAN 在一组 H"older 类定义的积分概率度量下的收敛速度和 Wasserstein 距离特殊情况下的学习率,并证明了当网络结构适当选择时,GAN 能够自适应地学习低维结构或具有 H"older 密度的数据分布。特别是对于集中在低维集合周围的分布,我们展示了 GAN 的学习速率不取决于高环境维度,而取决于较低的内在维度。我们的分析基于一种新的神谕不等式,将估计误差分解为生成器和鉴别器逼近误差和统计误差,这可能是具有独立研究价值的。
May, 2021
本文提出了一种理论框架,可以理解各种类型的生成对抗网络(GANs)的稳定性,并采用凸分析、最优传输和再现核等工具构建了一种可以同时满足这些条件的 GAN,解释并澄清了现有 GAN 稳定技术的必要性。
Feb, 2020
介绍了一种名为 WGAN 的新算法,可以提高学习的稳定性,解决 GAN 训练中的问题,提供有用的学习曲线进行调试和超参数搜索,并提供相关的理论工作,强调了与其他分布之间的深层次联系。
Jan, 2017
本研究提出了一种基于 Wasserstein 梯度流的数据集转换框架,可应用于分类数据集的约束、迁移学习和转换黑盒模型,以实现高准确度的分类。
Oct, 2020
生成对抗网络(GANs)可以生成高质量的样本,但不能提供样本周围的概率密度估计。本文通过最大化 log-likelihood 来建议改进分区函数的无偏估计方法,同时最大化生成器熵以提供更好的模式覆盖,利用一种新型的流网络 —— 单向流网络来计算生成样本的密度,从而设计出分区函数的无偏估计方法,并在实验中验证了该方法的快速收敛性、与相似结构 GANs 相当的样本质量、成功避免过度拟合常见数据集以及产生平滑的低维潜在数据表示。
Jul, 2023
提出了一种比传统的 WGAN 更好的 GAN 训练方法,使用正则化替代权重截取,通过惩罚评判器对其输入梯度的范数,可以实现各种 GAN 结构的稳定训练和高质量生成。
Mar, 2017
本研究探索了 Wasserstein 生成对抗网络在巴拿赫空间中引入梯度惩罚后的理论扩展和一些具体选择的基础点,重点关注 Sobolev 范数,并在 CIFAR-10 和 CelebA 中展示了性能提升。
Jun, 2018
通过在概率测度空间中基于无参数梯度流的差分隐私生成建模方法,本研究提出了一种新颖的差分隐私生成建模方法,通过粒子方案运行的新离散流,利用切片 Wasserstein 距离来计算私有的漂移,实验结果显示,相比基于生成器模型,我们的模型在较低的隐私成本下能够生成更高质量的数据,是一种可行的替代方法。
Dec, 2023