Feb, 2024

交替更新在极小极大优化中的基本收益

TL;DR梯度下降上升(GDA)算法用于解决极小极大优化问题,采用同时(Sim-GDA)或交替(Alt-GDA)的下降和上升步骤。我们对 Alt-GDA 和 Sim-GDA 进行了细致的收敛性分析,发现 Alt-GDA 的迭代复杂度上界严格小于 Sim-GDA 的下界,即 Alt-GDA 可证明更快速。此外,我们提出了交替外推 GDA(Alex-GDA),这是一个通用的算法框架,包含了 Sim-GDA 和 Alt-GDA,其主要思想是交替从迭代的外推中获得梯度,我们证明了 Alex-GDA 对于双线性问题具有线性收敛性,而 Sim-GDA 和 Alt-GDA 均无法收敛。