在 Hölder 连续性和一致凸性下高阶算法的统一加速
本研究引入了一种通用方案,利用对加速邻域点算法的新分析,加快一阶优化方法。通过近似解决一系列精心选择的辅助问题来最小化凸目标,从而实现更快的收敛速度,为包括梯度下降、块坐标下降、SAG、SAGA、SDCA、SVRG、Finito/MISO 及其邻域点变体在内的大类算法提供加速和明确的非强凸目标支持,加速在实践中证明对病态问题尤其有用。
Jun, 2015
本文提出了一种加速的一阶优化算法 —— 鲁棒动量法,可用于优化平滑强凸函数。该算法有一种参数可以调节对梯度噪声的稳健性与最差情况下的收敛速度之间的平衡。算法具有简单的解析形式,并通过在干净和梯度噪声情况下的一系列数值模拟进行了验证。
Oct, 2017
本文针对凸无约束优化问题提出了一种新方法,通过一种自适应学习率规则和线性耦合两个序列的方式,利用重要权重和自适应在线学习算法的思想实现了对光滑目标、非光滑一般情况和随机优化的加速收敛。实证分析表明了本方法在上述场景中的适用性并证实了我们的理论发现。
Sep, 2018
我们开发了一个新的框架来研究光滑和强凸优化算法,特别是针对二次函数,我们能够将优化算法作为线性运算的递归应用程序来检查,这揭示了一种强大的联系,即一类优化算法与多项式的分析理论之间的联系,从而导出了新的下界和上界,同时我们还以多项式相关的最优解的形式表达它,从而对 Nesterov 著名的加速梯度下降方法进行了新的系统推导。
Mar, 2015
提出了一种新颖的自适应加速算法,通过 Mirror-Prox 方法,同时实现了平滑 / 非平滑问题和确定性 / 随机一阶预测器的最优解,且不需要先验知识,这是第一个在约束条件下实现最优解的自适应、统一算法,并通过大量数值实验展示了其实用性。
Oct, 2019
本文介绍了在目标函数为凸或强凸函数时获取加速一阶随机优化算法的各种机制,同时扩展了最初用于确定性目标的 Catalyst 方法到随机问题领域,并提供了一个新的关于处理不精确近端算子时的鲁棒性的泛化分析
Jun, 2019
介绍了一种名为 Catalyst 的通用方案,通过解决一系列适当选择的辅助问题来加速各种优化算法(包括梯度下降、块坐标下降和增量算法),从而加快收敛速度。
Dec, 2017
本文研究了立方正则化牛顿法在解决具有一致凸性目标的复合最小化问题时的迭代复杂度。在引入某种程度的二阶条件数的概念后,我们证明了在非退化情况下具有自适应正则化参数估计的方法具有线性收敛率。我们的算法自动实现了具有 H"older 连续的目标平滑部分的不同问题类别中均匀凸目标函数的全局最佳复杂度界限。作为我们发展的副产品,我们证明了牛顿法在具有一致有界二阶导数的强凸函数类上的全局迭代复杂度始终优于梯度法。
May, 2019
我们提出了一种新的优化方法,通过类似于椭球体法的简单几何解释,实现了超平滑何强凸函数的无约束优化,并在数值实验中证明了其优于 Nesterov 加速梯度下降。
Jun, 2015