通过对生成对抗网络的训练,我们发现它可能没有良好的泛化特性,并且展示了训练成功不代表训练的分布接近目标分布,但是泛化确实存在于弱度量的神经网络距离中。我们证明了当生成器容量和训练集大小适中时,鉴别器 / 生成器博弈存在近似的纯平衡,这启发了 MIX+GAN 协议的存在可以与任何现有的 GAN 训练相结合,并在实践中改善了其中一些。
Mar, 2017
介绍了一种名为 “能量基生成对抗网络”(EBGAN)的模型,将判别器视为能量函数,用于选定数据流形附近区域的低能量和其他区域的高能量,可以使用多种体系结构和损失函数,本文采用自编码器架构,以重构误差作为能量,实现了高分辨率图像的生成。
Sep, 2016
提出了一种用于离散数据训练生成式对抗网络(GANs)的方法,称为边界寻找 GANs(BGANs)。该方法利用鉴别器估计的差异度量计算生成样本的重要性权重,为训练生成器提供了策略梯度,并证明了该算法在离散图像和字符基自然语言生成方面具有很好的效果。此外,目标函数可以扩展到连续的数据集,可用于提高训练的稳定性,并证明了在 Celeba、LSUN 卧室场景理解和 Imagenet 数据集上,该方法的实用性。
Feb, 2017
本文提出了 Wasserstein 自编码器(WAE)算法,通过最小化 Wasserstein 距离来构建数据分布的生成模型,并与其他技术进行比较,表明其是对抗自编码器(AAE)的推广,可用于生成更高质量的样本。
Nov, 2017
本文比较了在单幅图像超分辨率上使用 Wasserstein 距离和其他训练目标时,各种 GAN 架构的表现,结果表明,带梯度惩罚的 Wasserstein GAN(WGAN-GP)提供了稳定且收敛的 GAN 训练,Wasserstein 距离是衡量训练进展的有效指标。
May, 2017
我们提出了一种新的自编码器类型架构,它可以以无监督的方式进行训练,支持生成和推断,并通过对抗学习增强条件和无条件样本的质量。与以前的自编码器和对抗网络混合体不同,我们方法中的对抗游戏直接在编码器和生成器之间进行,训练过程中没有外部映射。游戏目标是将真实数据分布和生成数据分布的差异与潜在空间中的先验分布进行比较。我们展示了直接生成器对编码器游戏会导致两个组件的密切耦合,从而产生与一些最近提出的更复杂的架构相当的样本和重建质量。
Apr, 2017
本篇论文提出了一种基于随机投影的生成模型,该模型较传统的 GAN 模型更加稳定和精确,采用的 Wasserstein 距离作为度量计算生成样本的真实性,可以得到更准确的生成结果。
Mar, 2018
本篇论文提供了一个新的原则,即利用生成模型的层次结构将自编码器与生成对抗网络相结合,以防止学习到的生成模型中的模式崩溃,并使用区分器学习合成可能性和隐式后验分布。
Jun, 2017
提出了一种新颖的生成自编码器网络模型,能够高质量、高分辨率地学习编码和重建图像,并支持从编码器的潜在空间进行平滑的随机采样。
Jul, 2018
通过引入自动编码器并提出两个新的距离约束条件,有效地解决了生成对抗网络中的模式崩溃和梯度消失问题,并通过 Dist-GAN 在多个基准数据集上取得了比最先进方法更好的结果。