本研究提出了一种名为Chekhov GAN 1的训练方法,将GAN的训练问题视为在零和博弈中找到一种混合策略,结合在线学习的思想,理论和实践证明了该方法收敛于半浅GAN体系结构,提高了稳定性和性能。
Jun, 2017
本文分析了生成对抗网络(GANs)的优化问题,通过引入正则化方法提高训练速度和稳定性,并对经典GAN和Wasserstein GAN优化过程的局部渐近稳定性进行了研究。
本文提出一种基于二次尺度更新规则的GAN训练方法,使用随机逼近理论证明其可以收敛于本地Nash均衡点,并且在图像生成方面的表现优于传统GAN算法,同时提出了一种新的用于评估GAN生成图像质量的指标Fr\'echet Inception Distance。
通过实证方法,发现GAN的训练不仅仅是最小化分布之间的散度,而是通过一些不必要的梯度来促进达到纳什均衡。
Oct, 2017
本文提出了一个简单统一、非渐进的本地收敛理论,涵盖了多个离散时间梯度基点动力学,分析表明,离对角线的相互作用项具有神奇的性质,既是一件好事,也是一件坏事,对网络训练进行了四个修正动态的稳定化,揭示了这些稳定技术之间的密切联系,并提供了有关学习率选择的详细特征描述。
Feb, 2018
本文分析了基于动量的梯度下降法在线性游戏中的应用,证明交替更新比同时更新更加稳定。同时,理论和实验都表明带有负动量项的交替梯度下降法能够实现在困难的攻击问题和难以训练的 saturating GANs 中的收敛。
Jul, 2018
通过无限维二人博弈的新算法框架,我们证明了混合Nash Equilibria上的收敛性率,最终通过简单取样程序实现了高效的算法,证明了其在速度和质量上的优越表现。
Oct, 2018
本文提出了一种名为local symplectic surgery的算法,用于在二人零和博弈中寻找局部纳什均衡,并在两个数值案例中验证其有效性。
Jan, 2019
本研究通过新的可视化技术研究了GAN优化景观,并从理论和实践的角度对GAN的训练进行了实证研究,发现GAN在训练过程中会显著旋转,并最终收敛于一个稳定的马鞍点而非最小值。
Jun, 2019
本论文研究了生成对抗网络在最小极大博弈中存在的纳什均衡问题,提出了一种新的基于近端算子的目标函数来获得用于训练生成网络的近端均衡点,称为近端训练, 并进行了数值实验。
Feb, 2020