GAN-QP: 一种无梯度消失和Lipschitz约束的新型GAN框架
本文提出使用Lipschitz正则化理论构建的LS-GAN,进一步以该理论为基础,提出了GLS-GAN,得到了很好的实验结果,同时还扩展到了条件形式,表现出色于图像分类任务中。
Jan, 2017
本研究提出了Gang of GANs (GoGAN)方法,将WGAN的鉴别器损失推广到基于边界的方法,实现更好的生成器和较少的梯度消失、不稳定性和模式崩溃问题,并采用一种新的GAN质量测量方式,并在四个视觉数据集上进行了评估,相较于WGAN有了视觉和定量的改进。
Apr, 2017
本文分析了生成对抗网络(GANs)的优化问题,通过引入正则化方法提高训练速度和稳定性,并对经典GAN和Wasserstein GAN优化过程的局部渐近稳定性进行了研究。
Jun, 2017
本研究将生成式对抗网络的minimax博弈与一个凸优化问题中的Lagrangian函数的鞍点联系起来,并展示了标准GAN训练过程和凸优化的原始 - 对偶次梯度方法之间的联系。此外,本研究提出了一种新的目标函数来训练模型,以解决模式塌陷和生成多样化的问题。实验结果显示了该方法的有效性。
Feb, 2018
本研究讨论了与 G(生成器)相关的大多数损失函数的属性,表明这些损失函数并不是发散的,并且不具有发散的期望平衡。研究结果显示, GANs 不符合发散最小化理论,并且形成了比先前假设的模型更广泛的模型范围。
Sep, 2018
本文介绍了一种用于分析生成对抗网络的凸对偶框架,提出在约束条件为凸集时,通过最小化生成模型与经过判别器的数据分布匹配但是被期望的矩所限制的分布的 JS 散度,来得到生成模型。同时,将此框架应用于 f-GAN 和 Wasserstein GAN 网络,提出了一种新的混合 JS 散度和 Wasserstein 距离的分布度量用于正则化中。
Oct, 2018
本文研究Lipschitz正则化在GAN训练中的作用,发现其通过限制损失函数的定义域和可达到梯度值的区间,使得损失函数近似线性化,并且证明了只有这种近似于线性的损失函数才能达到良好的效果。除此之外,文章也证明了只要通过正则化让任何函数近似于线性函数,就可以作为损失函数使用。
Nov, 2018
本文从判别函数最优梯度含义化角度研究生成对抗网络 (GANs) 的收敛性,并表明通过添加 Lipschitz 约束可以消除由于梯度缺乏信息而导致的问题,因此提出了一类名为 Lipschitz GANs (LGANs) 的 GANs,实验证明 LGANs 的样本质量相较于 Wasserstein GANs 更高且更加稳定。
Feb, 2019
对GAN领域中的高质量图像生成、图像生成的多样性和稳定训练等三个实际问题的研究进展进行了详细回顾和分类,同时讨论了GAN在计算机视觉中最成功的应用并提出了未来的研究方向。
Jun, 2019
生成对抗网络(GANs)是在多个领域中生成逼真、多样化数据的强大工具。本研究综述了GANs的潜在架构、验证指标和应用领域,并探讨了GAN与Jensen-Shannon散度之间的深刻联系以及GAN框架的最优性特征。对GAN变体的效率、模型架构以及训练障碍和解决方案进行了评估,并详细讨论了GAN与Transformer、物理信息神经网络、大型语言模型和扩散模型等新开发的深度学习框架的整合。最后,揭示了该领域的若干问题和未来研究方向。
Aug, 2023