加速方法
介绍了一种名为 Catalyst 的通用方案,通过解决一系列适当选择的辅助问题来加速各种优化算法(包括梯度下降、块坐标下降和增量算法),从而加快收敛速度。
Dec, 2017
本文介绍了多步优化算法的收敛加速方案,并使用 Chebyshev 问题模拟了迭代过程中的行为,同时讨论了该方案在原始 - 对偶算法中的应用,并在逻辑回归问题中进行了数值实验。
Oct, 2018
本文从连续时间的角度研究了加速方法,发现 Bregman Lagrangian 是一种生成各种加速方法的拉格朗日函数,其中包括 Nesterov 成果的系统方法。
Mar, 2016
本研究引入了一种通用方案,利用对加速邻域点算法的新分析,加快一阶优化方法。通过近似解决一系列精心选择的辅助问题来最小化凸目标,从而实现更快的收敛速度,为包括梯度下降、块坐标下降、SAG、SAGA、SDCA、SVRG、Finito/MISO 及其邻域点变体在内的大类算法提供加速和明确的非强凸目标支持,加速在实践中证明对病态问题尤其有用。
Jun, 2015
该论文介绍了一种通用的方案,使用最初设计用于最小化凸函数的梯度下降算法来解决非凸优化问题,该方案允许我们将这些方法用于弱凸性目标,这涵盖了机器学习和信号处理中通常出现的大类非凸函数。该方案无需假定目标函数具有凸性,而是通过自适应于未知的弱凸性常数来实现其保证。最后,本文还展示了将该方案应用于增量算法的几个实验结果。
Mar, 2017
本文介绍了在目标函数为凸或强凸函数时获取加速一阶随机优化算法的各种机制,同时扩展了最初用于确定性目标的 Catalyst 方法到随机问题领域,并提供了一个新的关于处理不精确近端算子时的鲁棒性的泛化分析
Jun, 2019
本文提出了一种加速的一阶优化算法 —— 鲁棒动量法,可用于优化平滑强凸函数。该算法有一种参数可以调节对梯度噪声的稳健性与最差情况下的收敛速度之间的平衡。算法具有简单的解析形式,并通过在干净和梯度噪声情况下的一系列数值模拟进行了验证。
Oct, 2017
我们研究了高斯相位恢复问题中的加速优化方法,证明了带 Polyak 或 Nesterov 动量的梯度方法具有与梯度下降类似的隐式正则化能力。这种隐式正则化确保算法保持在一个良好的区域,其中成本函数在一般情况下是非凸的,但强凸和光滑的。这确保了这些加速方法比梯度下降方法实现更快的收敛速度。实验证据表明,实践中加速方法比梯度下降方法收敛更快。
Nov, 2023
本文提出了一个通用框架,允许加速几乎任意非加速确定性和随机算法用于光滑凸优化问题,其中通过使用加速的近端外梯度方法作为非加速内方法的包络来实现。该算法有两个关键不同之处:容易验证的内部算法停止标准和学习率的可调节性,使得此工作的主要贡献是适用于自适应内部算法 Steepset Descent、Adaptive Coordinate Descent 和 Alternating Minimization 的新框架。此外,在非自适应情况下,我们的方法允许获得没有对数因子的 Catalyst,这与标准 Catalyst 不同。
Nov, 2019