非强凸凸凹鞍点问题的原始-对偶梯度法的线性收敛
提出一种随机扩展的原始-对偶混合梯度算法用于解决在对偶变量中可分离的鞍点问题,该算法适用于一般的凸凹鞍点问题和部分平滑/强凸或完全平滑/强凸问题,并且在任意抽样的对偶变量中,有多个变体的随机方法在各种图像任务中显着优于确定性变体。
Jun, 2017
本文研究使用Extra-gradient和Optimistic Gradient Descent Ascent算法解决鞍点问题,并表明这两种算法作为经典的近端点法的逼近。通过这个观点,我们开发了一种新的框架来分析EG和OGDA在双线性和强凸-强凹情况下的效果。此外,我们使用近端点逼近解释将结果推广到OGDA适用于广泛的参数范围。
Jan, 2019
本文提出了一种新的随机原始-对偶算法来解决一类包含凸-凹结构的问题,并且相比现有算法在迭代次数上有更快的收敛速度,其中使用了梯度更新和确定性对偶变量更新的混合方法。
Apr, 2019
本文研究解决平滑最小最大优化问题的一阶方法,其中g(x,y)是平滑的且g(x,·)对于每个x均为凹性。对于g(·,y),我们考虑两种情况——强凸性和非凸性—— 并在两种情况下改进了已知最佳速率。
Jul, 2019
本文提出了一种加速原始-对偶梯度方法(APDG)来解决凸-凹鞍点问题,该方法在强凸-强凹区间内实现了最佳线性收敛速率,匹配了复杂度下限,并在仅其中一个函数是强凸的情况下实现了加速线性收敛率,最终我们获得了一种针对一般凸-凹鞍点问题的线性收敛算法,无需强凸性和强凹性的要求。
Dec, 2021
我们考虑了一类在没有中央服务器的分散环境中的非光滑强凸-强凹鞍点问题。为了解决这类问题的共识形式,我们开发了一种不精确原始对偶混合梯度(inexact PDHG)算法,该算法允许通用梯度计算预言更新原始和对偶变量。我们首先研究了不精确PDHG与随机方差减少梯度(SVRG)预言的性能。我们的数值研究揭示出了IPDHG与SVRG预言的迭代过程中的初始保守进展现象。为了解决这个问题,我们提出了一个简单且有效的切换思想,即在更新的初始阶段使用广义随机梯度(GSG)计算预言来加快迭代过程,然后在适当的时机切换到SVRG预言。提出的算法被命名为带压缩的分散近端切换随机梯度方法(C-DPSSG),并被证明以线性速率收敛到一个ε-精确的鞍点解。除了提供高精度的解决方案外,我们的研究还揭示出利用GSG和SVRG预言的最佳收敛阶段使C-DPSSG非常适合获得低/中等准确度的解决方案,这对某些应用非常有用。对两个基准机器学习应用进行的数值实验显示了C-DPSSG的竞争性能,验证了我们的理论发现。
Sep, 2023
本研究针对强凸-强凹鞍点问题提出了一种新颖的方法——多重贪婪准牛顿(MGSR1-SP)法,旨在提高本类问题中平方无定 Hessian 矩阵的近似效果,从而显著提升算法的稳定性和效率。通过对 MGSR1-SP 的理论分析,证明其线性-二次收敛率,并通过数值实验展示其在 AUC 最大化和对抗去偏问题中的优越收敛能力,表明该方法在机器学习中的广泛应用潜力。
Aug, 2024