基于在线学习的生成对抗网络方法
本文旨在为数学家提供适用的 GANs 理论解释,概述 GANs 的训练问题和拓扑学和博弈论视角如何贡献于我们理解和实践 GANs 的技术的正面和反面结果。
Jun, 2018
本文综述了生成模型的最新应用 —— 生成对抗网络(GAN)及其在计算机视觉和机器学习领域的实际应用,讨论了 GAN 训练中的困难和障碍,并调查了不同研究者提出的训练方案,以求实现 GAN 的稳定训练,最后探讨了与该主题相关的新问题和研究方向。
Jun, 2020
本文探讨了使用生成对抗网络 (GAN) 合成高度逼真图像的优化问题,针对当下模型存在的问题,提出了一种修改规则和设计模型的方法。实验表明,我们的方法可以更有效地训练 GAN 模型,并以 3D 物体投影问题为例进行了验证。
May, 2017
本文提出了一种新的基于随机化决策规则的 GAN 公式,其中鉴别者收敛于一个固定点,而生成器则收敛于 Nash 均衡下的分布,通过随机梯度 Markov 链蒙特卡罗算法以及相应的模拟方法,得到了一种有效的支撑算法。
Jun, 2023
通过对生成对抗网络的训练,我们发现它可能没有良好的泛化特性,并且展示了训练成功不代表训练的分布接近目标分布,但是泛化确实存在于弱度量的神经网络距离中。我们证明了当生成器容量和训练集大小适中时,鉴别器 / 生成器博弈存在近似的纯平衡,这启发了 MIX+GAN 协议的存在可以与任何现有的 GAN 训练相结合,并在实践中改善了其中一些。
Mar, 2017
本文通过分析实际情景下 GAN 的泛化能力,证明了原始 GAN 的损失函数训练得到的鉴别器的泛化能力较差,并提出了一种零中心梯度惩罚策略以改善鉴别器的泛化能力,并保证 GAN 的收敛和泛化。通过在合成和大规模数据集上的实验,验证了理论分析的正确性。
Feb, 2019
通过博弈论视角,使用历史混合模型对深度神经网络进行训练的 Fictitious GAN 方法可以有效地解决收敛问题,从而使生成器的输出分布在渐进意义下收敛于数据样本的分布。
Mar, 2018
本文提出了一种名为 Mixture GAN (MGAN)的新方法,该方法采用多个生成器的混合训练,旨在克服 mode collapsing 问题,通过理论分析得出结论,证明了在平衡状态下,多个生成器的分布和数据分布之间的 Jensen-Shannon 差异最小,生成器之间的 Jensen-Shannon 差异最大,从而有效地避免了 mode collapsing 问题,能够在多项实验中取得明显的优势。
Aug, 2017