朝着更好的 GAN 全局损失景观
本研究通过新的可视化技术研究了 GAN 优化景观,并从理论和实践的角度对 GAN 的训练进行了实证研究,发现 GAN 在训练过程中会显著旋转,并最终收敛于一个稳定的马鞍点而非最小值。
Jun, 2019
本文回顾了关于神经网络全局和局部损失函数的广泛研究,重点探讨了在某些假设下宽神经网络可能存在亚优局部最小值的性质以及一些修改方法,并讨论了实际神经网络的可视化和经验探索,最后简要讨论了一些收敛结果及其与全局和局部损失函数相关的关系。
Jul, 2020
本研究提出了 Gang of GANs (GoGAN) 方法,将 WGAN 的鉴别器损失推广到基于边界的方法,实现更好的生成器和较少的梯度消失、不稳定性和模式崩溃问题,并采用一种新的 GAN 质量测量方式,并在四个视觉数据集上进行了评估,相较于 WGAN 有了视觉和定量的改进。
Apr, 2017
本次论文研究了使用后悔最小化的方式来训练 GAN,提出了在非凸偏好游戏中存在不良局部均衡的假设,并提出了 DRAGAN 梯度惩罚方案以避免产生收缩现象,这样可以实现更快速的训练,更少的模式崩溃以及更好的建模性能。
May, 2017
本文提出了一种名为 Mixture GAN (MGAN)的新方法,该方法采用多个生成器的混合训练,旨在克服 mode collapsing 问题,通过理论分析得出结论,证明了在平衡状态下,多个生成器的分布和数据分布之间的 Jensen-Shannon 差异最小,生成器之间的 Jensen-Shannon 差异最大,从而有效地避免了 mode collapsing 问题,能够在多项实验中取得明显的优势。
Aug, 2017
本文提出了一个新颖的局部生成对抗网络(Localized GAN),使用局部坐标系向量化真实数据的不同局部几何变换。在正交先验的作用下避免了流形局部坍塌到低维切向子空间,降低了模式崩溃的风险。用提出的 LGAN 训练分类器不仅能获得更优结果,而且分类结果是在流形中的局部连续性解释,与拉普拉斯 - 贝尔特拉米算子密切相关。
Nov, 2017
本文研究了生成对抗网络在高维高斯数据下的建模、鲁棒性以及泛化能力,并提出了一种能快速推广、拥有全局稳定性的 GAN 结构模型,最终利用模型设计实现了 GAN 在复杂数据下的应用。
Oct, 2017
本文介绍了一种用于分析生成对抗网络的凸对偶框架,提出在约束条件为凸集时,通过最小化生成模型与经过判别器的数据分布匹配但是被期望的矩所限制的分布的 JS 散度,来得到生成模型。同时,将此框架应用于 f-GAN 和 Wasserstein GAN 网络,提出了一种新的混合 JS 散度和 Wasserstein 距离的分布度量用于正则化中。
Oct, 2018
本研究讨论了与 G(生成器)相关的大多数损失函数的属性,表明这些损失函数并不是发散的,并且不具有发散的期望平衡。研究结果显示, GANs 不符合发散最小化理论,并且形成了比先前假设的模型更广泛的模型范围。
Sep, 2018