本研究提出了一种名为 Adversarial Lipschitz Regularization 的方法,其可行地利用了显式的 Lipschitz 惩罚,并在训练 Wasserstein GANs 时表现出与隐式惩罚相同的性能表现,凸显了 Lipschitz 正则化和对抗性训练之间的重要联系。
Jul, 2019
本文提出了一种使用正则化项的生成对抗网络(GANs)的训练方法,以加强 Lipschitz 限制约束,该方法通过实验数据验证其有效性。
Sep, 2017
本文从判别函数最优梯度含义化角度研究生成对抗网络 (GANs) 的收敛性,并表明通过添加 Lipschitz 约束可以消除由于梯度缺乏信息而导致的问题,因此提出了一类名为 Lipschitz GANs (LGANs) 的 GANs,实验证明 LGANs 的样本质量相较于 Wasserstein GANs 更高且更加稳定。
Feb, 2019
本文提出了最小二乘生成对抗网络(LSGANs),采用了最小二乘损失函数来提高稳定性并生成高质量图像,并通过定性和定量实验进行了比较评估。
Dec, 2017
本文提出了一种使用最小二乘损失函数的生成对抗网络模型,该模型能够在图像生成和稳定性方面表现得更好,并通过实验结果进行了证明。
Nov, 2016
该论文提出了一种正则化方法来训练健壮的 GAN 模型,使其在有限的训练数据下表现更好,并且在几个基准数据集上的实验证明了该方法在提高泛化性能和稳定学习动态方面的有效性。
Apr, 2021
提出了一种比传统的 WGAN 更好的 GAN 训练方法,使用正则化替代权重截取,通过惩罚评判器对其输入梯度的范数,可以实现各种 GAN 结构的稳定训练和高质量生成。
Mar, 2017
本文提出一种新的方法代替传统的梯度惩罚法和谱标准化法,通过实验证明该方法可以取得成功的训练稳定性和样本质量。
Apr, 2019
本文提出了一种新的归一化方法 —— 梯度归一化(GN),通过在鉴别器函数上施加硬 1-Lipschitz 约束,从而增加鉴别能力,解决了生成对抗网络中尖锐梯度空间引起的训练不稳定性问题,并在四个数据集上进行了广泛实验,证明了使用梯度归一化训练的 GAN 模型在 Frechet Inception Distance 和 Inception Score 方面优于现有方法。
Sep, 2021
提出一个基于对抗生成网络的新模型 RegGAN,该模型可以在生成样本的同时训练三个网络 —— 一个生成器和两个判别器,以便从与训练集概率分布不同的概率分布中生成样本,并可用于学习拓扑学中的某些先验概念。
Feb, 2021