本文分析了生成对抗网络(GANs)的优化问题,通过引入正则化方法提高训练速度和稳定性,并对经典GAN和Wasserstein GAN优化过程的局部渐近稳定性进行了研究。
Jun, 2017
本文研究生成对抗网络中的学习动态,通过对简单但富有挑战性收敛行为(如梯度消失、模式崩溃、发散或振荡)的参数模型进行理论分析和实践研究,发现使用一阶判别器步骤是导致GAN训练具有挑战性的因素之一。
本文提出了一个简单统一、非渐进的本地收敛理论,涵盖了多个离散时间梯度基点动力学,分析表明,离对角线的相互作用项具有神奇的性质,既是一件好事,也是一件坏事,对网络训练进行了四个修正动态的稳定化,揭示了这些稳定技术之间的密切联系,并提供了有关学习率选择的详细特征描述。
Feb, 2018
研究第一阶段方法在极小极大问题中的收敛属性,证明了基本的GD和OGD方法可以避免不稳定的临界点,并在初始状态下几乎所有的点都是OGDA稳定的临界点,而OGDA稳定的临界点集合是包含GDA稳定的临界点的超集,这些动态的行为可以从动态系统的角度进行研究。
Jul, 2018
本文研究生成式对抗网络的训练动态及其变种中的梯度下降算法的极小极大博弈,通过微分方程的连续时间分析,研究了凸、凹假设下的最后迭代收敛性,并提出了具有悲观特征和锚定特征的simGD算法和新的anchored simGD算法。
May, 2019
运用控制理论中的闭环控制方法,通过直接建模 GANs 功能空间中的动力学模型,提出了一种稳定 GANs 训练的方法,并取得了最先进的数据生成任务性能。
Sep, 2019
本文研究发现优化算法在训练最大-最小学习问题的生成式对抗网络中发挥了关键作用,涉及泛化性能和算法稳定性等方面,而梯度下降上升算法则是其中一种表现优越的算法。
Oct, 2020
通过研究由GAN训练引起的连续时间动力学,我们验证了基于ODE求解器的方法(如Runge-Kutta),结合控制积分误差的正则化器,可以稳定训练GAN,这一方法胜过先前的一些强基线方法。
提出了一个新的极小极大优化框架 GDA-AM,利用 Anderson 混合算法加速 GDA 收敛,解决了同时使用 GDA 时出现的发散问题,并以理论和实验的方式证明该算法在较温和的条件下可以实现二次问题的全局收敛,并改进了 GAN 训练。
Oct, 2021
本文探讨了梯度下降上升(GDA)方法在生成对抗网络中极小化最大化优化问题的收敛性质及实现方式,研究表明GDA在本地条件数为y时的步长比至少需要为θ(Kappa),并支持在随机GDA和额外梯度方法(EG)中的应用。
Jul, 2022