通过算法稳定性的视角,对凸凹和非凸非凹情形下的随机梯度方法在极小极大问题中的泛化能力进行了全面的分析,建立了稳定性与泛化能力之间的定量联系。在凸凹情形下,稳定性分析表明了随机梯度下降算法对于平滑和非平滑的极小极大问题皆可达到最优的泛化界。我们还确定了泛函弱凸弱凹和梯度占主导地位的问题的泛化界。
May, 2021
研究非凸极小问题的解决方案,提出两种算法 AGDA 和随机 AGDA,以及一种方差缩减算法,可以应用于类似生成对抗网络和对抗学习等新兴机器学习应用。
Feb, 2020
我们研究了分布式随机梯度上升下降(D-SGDA)算法的原始 - 对偶广义界限,通过算法稳定性方法,在凸凹和非凸非凹环境下对分布式最小最大算法的广义界限进行了改进。我们的理论研究表明,分布式结构不会破坏 D-SGDA 的稳定性和广义化能力,在某些情况下可以实现和普通 SGDA 相同的广义化能力。此外,我们还评估了凸凹设定下 D-SGDA 算法的优化误差,并将其与广义间隙相平衡,以获得最佳的总体风险。最后,我们进行了多项数值实验来验证我们的理论发现。
Oct, 2023
提出了 DM-GDA 方法,使用动量法更新变量和估计随机梯度,并证明在非凸情况下找到具有稳定解的解决方案的梯度复杂度接近最优,可用于在网络上进行分布式的 Nonconvex-PL 随机极小化问题的优化。
Apr, 2023
本文探讨了梯度下降上升(GDA)方法在生成对抗网络中极小化最大化优化问题的收敛性质及实现方式,研究表明 GDA 在本地条件数为 y 时的步长比至少需要为 θ(Kappa),并支持在随机 GDA 和额外梯度方法(EG)中的应用。
Jul, 2022
提出了一个新的极小极大优化框架 GDA-AM,利用 Anderson 混合算法加速 GDA 收敛,解决了同时使用 GDA 时出现的发散问题,并以理论和实验的方式证明该算法在较温和的条件下可以实现二次问题的全局收敛,并改进了 GAN 训练。
Oct, 2021
本文研究了非凸 - 凹极小化问题,采用了两种不同时间尺度的梯度下降升高算法来解决该问题,并得到了算法能够在有效的时间内找到函数的一个稳定点的结论,这种算法在训练生成敌对网络等实际应用中具有出色的实际表现。
Jun, 2019
本文研究了使用交替 GDA 和平滑 GDA 算法解决纳什均衡问题的收敛速度,证明了在满足 Polyak-Lojasiewicz 条件时,这两种算法分别需要 O (κ²ε⁻²) 和 O (κε⁻²) 次迭代即可找到 ε- 极小点,而在类似条件下,这是目前最佳的单循环算法复杂度结果。实验证明这些算法在生成对抗网络训练和非线性回归中具有较高的效率。
Dec, 2021
本文研究了一种更为广泛的两人博弈非凸强凹优化的收敛性,在 K-L 参数化几何全谱上,证明了 Proximal-GDA 算法的收敛速率是不同的,这是首个关于非凸极小极大优化变量收敛的理论结果。
Feb, 2021
本文针对非凸凹的情况,在最小极大问题中应用交替梯度下降方法找到临界点并证明了一种新的全局收敛速率。
Jul, 2020