最小二乘生成对抗网络的有效性
本文提出使用 Lipschitz 正则化理论构建的 LS-GAN,进一步以该理论为基础,提出了 GLS-GAN,得到了很好的实验结果,同时还扩展到了条件形式,表现出色于图像分类任务中。
Jan, 2017
引入了一种统一的 α 参数化生成器损失函数,用于一种双目标生成对抗网络(GAN),其使用经典鉴别器损失函数,例如原始 GAN(VanillaGAN)系统中的损失函数。生成器损失函数基于对称类概率估计类型函数 L_α,得到的 GAN 系统称为 L_α-GAN。在最优鉴别器下,证明了生成器的优化问题包括最小化 Jensen-f_α- 分歧,这是 Jensen-Shannon 分歧的自然推广,其中 f_α 是用损失函数 L_α 表示的凸函数。还证明了这个 L_α-GAN 问题作为文献中一些 GAN 问题的特例,包括 VanillaGAN、最小二乘 GAN(LSGAN)、最小 k 阶 GAN(LkGAN)和最近引入的(αD,αG)-GAN(其中 αD=1)。最后,在三个数据集 MNIST、CIFAR-10 和 Stacked MNIST 上进行实验,以说明各种示例的 L_α-GAN 系统的性能。
Aug, 2023
本研究讨论了与 G(生成器)相关的大多数损失函数的属性,表明这些损失函数并不是发散的,并且不具有发散的期望平衡。研究结果显示, GANs 不符合发散最小化理论,并且形成了比先前假设的模型更广泛的模型范围。
Sep, 2018
本文从判别函数最优梯度含义化角度研究生成对抗网络 (GANs) 的收敛性,并表明通过添加 Lipschitz 约束可以消除由于梯度缺乏信息而导致的问题,因此提出了一类名为 Lipschitz GANs (LGANs) 的 GANs,实验证明 LGANs 的样本质量相较于 Wasserstein GANs 更高且更加稳定。
Feb, 2019
本文研究生成式对抗网络的一种成功变体 Wasserstein GANs,并证明在生成器为一层网络时,使用随机梯度上升下降法可以在多项式时间和样本复杂度内收敛到全局最优解。
Oct, 2019
生成对抗网络(GAN)已经成为一种生成高保真数据的强大工具,并且采用监督方法提出了 Monte Carlo GAN(MCGAN)算法,以解决现有方法在生成器训练上缺乏监督导致的振荡与性能不佳的问题,并且数值结果表明 MCGAN 在质量、准确性、训练稳定性和学习潜在空间等方面明显且一致地改进了现有的 GAN 模型。
May, 2024
本文提出了一种不依赖于传统极小 - 极大公式的生成式对抗方法理论,并展示了当存在强的辨别器时,通过每个功能性梯度步骤,可以学到一个好的生成器,使得真实数据和生成数据的分布的 KL 散度改善,直到收敛于零,并基于该理论,提出了一种新的稳定的生成式对抗方法,同时提供了从这个新的视角对原始 GAN 的理论洞见,最终,针对图像生成的实验展示了我们的新方法的有效性。
Jan, 2018