AAAIJul, 2020

适应性梯度方法用于约束凸优化和变分不等式问题

TL;DR本文提出了 AdaACSA、AdaAGD + 等新的自适应一阶优化算法,以加速受限制的凸优化问题中的收敛速度,同时针对平滑和不平滑函数,实现几乎最优的收敛速率;同时,通过自动调整每个坐标学习率,这些算法不需要固定事先知道目标函数的参数化,是针对限制优化的真正加速 Adagrad 方法之一。此外,本文提出了适用于无限制优化和单调算子的自适应方法,并附有具体的算法实现。