极大极小优化的最终迭代收敛速率
本文研究了凸凹零和博弈问题,并提出了一种遵循在线学习框架的近似算法 Optimistic Multiplicative-Weights Update,在本地范围内表现出最后收敛性。
Feb, 2020
研究非凸极小问题的解决方案,提出两种算法 AGDA 和随机 AGDA,以及一种方差缩减算法,可以应用于类似生成对抗网络和对抗学习等新兴机器学习应用。
Feb, 2020
通过算法稳定性的视角,对凸凹和非凸非凹情形下的随机梯度方法在极小极大问题中的泛化能力进行了全面的分析,建立了稳定性与泛化能力之间的定量联系。在凸凹情形下,稳定性分析表明了随机梯度下降算法对于平滑和非平滑的极小极大问题皆可达到最优的泛化界。我们还确定了泛函弱凸弱凹和梯度占主导地位的问题的泛化界。
May, 2021
本文研究了非凸 - 凹极小化问题,采用了两种不同时间尺度的梯度下降升高算法来解决该问题,并得到了算法能够在有效的时间内找到函数的一个稳定点的结论,这种算法在训练生成敌对网络等实际应用中具有出色的实际表现。
Jun, 2019
本研究考虑了一类非凸非凹极值问题的一阶收敛理论和算法,它在机器学习中有广泛的应用,包括训练生成式对抗网络(GAN)。我们提出了一种算法框架,通过解决一系列强单调变分不等式,证明了所提出的方法的一阶收敛性和收敛率,并在 GAN 的训练中证明了所提出的算法的有效性。
Oct, 2018
该研究介绍了一种与梯度下降上升(GDA)算法相结合的 “平滑” 方案,以解决非凸 - 凹最小 - 最大问题,此方案能够稳定振荡,并确保收敛到一个定值解。实验结果表明,平滑后的 GDA 算法对于 minimizing pointwise maximum of a finite collection of nonconvex functions 可以实现 O (1/ε^2) 的迭代复杂度,对于 general nonconvex-concave problems 可以实现 O (1/ε^4) 的迭代复杂度,并且将该算法扩展到多个区块的情况下。
Oct, 2020
本文针对分布式算法模型中面临的发散问题,提出了两种基于随机梯度下降的算法,并证明了其具有良好的收敛性能,这是首个针对分布式情况下的凸 - 非凸问题的线性收敛性的成果。
Apr, 2023
本文研究生成式对抗网络的训练动态及其变种中的梯度下降算法的极小极大博弈,通过微分方程的连续时间分析,研究了凸、凹假设下的最后迭代收敛性,并提出了具有悲观特征和锚定特征的 simGD 算法和新的 anchored simGD 算法。
May, 2019
本文研究发现优化算法在训练最大 - 最小学习问题的生成式对抗网络中发挥了关键作用,涉及泛化性能和算法稳定性等方面,而梯度下降上升算法则是其中一种表现优越的算法。
Oct, 2020