针对Lipschitz密度的损失敏感型生成对抗网络
本文研究了属于生成对抗网络框架下学习密度函数的收敛速度,通过借鉴非参数统计学中的思路引入了一种改进型生成对抗网络估算器,同时利用目标密度的光顺程度和度量结果,实现更快速的学习速率,并理论上解决了文献中报道的模式崩溃问题。作者还构建了最小极大下界来证明,在维数较大的情况下,新生成对抗网络估算器的速率指数是接近最优的。因此我们的结果可以以量化的方式回答生成对抗网络在多种光滑程度具有不同密度下的学习效果,并从中获得了更好的泛化界限。
Dec, 2017
本研究讨论了与 G(生成器)相关的大多数损失函数的属性,表明这些损失函数并不是发散的,并且不具有发散的期望平衡。研究结果显示, GANs 不符合发散最小化理论,并且形成了比先前假设的模型更广泛的模型范围。
Sep, 2018
本论文研究了生成性对抗网络(GANs)的收敛速率和损失函数,探讨了在不同参数和非参数条件下的目标分布,都能通过GANs进行逼近, 建立了基于生成器和判别器的正则化理论,提出了生成器-判别器对正则化的新概念,为分布估计提供了有效的统计保证。
Nov, 2018
本文提出了一种新型的生成对抗网络GAN-QP,它不需要Lipschitz约束,也不需要选择概率分布,可以直接在对偶空间中构建新的分布,并且理论和实践中要优于WGAN。
Nov, 2018
本文研究Lipschitz正则化在GAN训练中的作用,发现其通过限制损失函数的定义域和可达到梯度值的区间,使得损失函数近似线性化,并且证明了只有这种近似于线性的损失函数才能达到良好的效果。除此之外,文章也证明了只要通过正则化让任何函数近似于线性函数,就可以作为损失函数使用。
Nov, 2018
本文从判别函数最优梯度含义化角度研究生成对抗网络 (GANs) 的收敛性,并表明通过添加 Lipschitz 约束可以消除由于梯度缺乏信息而导致的问题,因此提出了一类名为 Lipschitz GANs (LGANs) 的 GANs,实验证明 LGANs 的样本质量相较于 Wasserstein GANs 更高且更加稳定。
Feb, 2019
对GAN领域中的高质量图像生成、图像生成的多样性和稳定训练等三个实际问题的研究进展进行了详细回顾和分类,同时讨论了GAN在计算机视觉中最成功的应用并提出了未来的研究方向。
Jun, 2019
引入了一种统一的α参数化生成器损失函数,用于一种双目标生成对抗网络(GAN),其使用经典鉴别器损失函数,例如原始GAN(VanillaGAN)系统中的损失函数。生成器损失函数基于对称类概率估计类型函数L_α,得到的GAN系统称为L_α-GAN。在最优鉴别器下,证明了生成器的优化问题包括最小化Jensen-f_α-分歧,这是Jensen-Shannon分歧的自然推广,其中f_α是用损失函数L_α表示的凸函数。还证明了这个L_α-GAN问题作为文献中一些GAN问题的特例,包括VanillaGAN、最小二乘GAN(LSGAN)、最小k阶GAN(LkGAN)和最近引入的(αD,αG)-GAN(其中αD=1)。最后,在三个数据集MNIST、CIFAR-10和Stacked MNIST上进行实验,以说明各种示例的L_α-GAN系统的性能。
Aug, 2023