本文提出一类新的目标函数,其中只有参数的一个子集满足强凸性,并证明 Nesterov 的动量在这个目标类上实现了加速收敛,其中包括用于深度 ReLU 网络的两种实现方法,这是第一篇证明非平凡神经网络结构加速收敛率的论文。
Jun, 2023
本文研究了解决光滑的非强凸约束优化问题的一些一阶方法的收敛率,提供了一些松弛的强凸条件并证明了它们对于多种一阶方法的线性收敛是足够的,最后证明了所提出的松弛强凸条件涵盖了求解线性系统、线性规划和线性约束凸问题的重要应用。
Apr, 2015
我们提出了一种新的优化方法,通过类似于椭球体法的简单几何解释,实现了超平滑何强凸函数的无约束优化,并在数值实验中证明了其优于 Nesterov 加速梯度下降。
Jun, 2015
该论文研究了基于高分辨率微分方程框架的 Nesterov 加速梯度下降的新的 Lyapunov 函数在欠阻尼情况下的特征,包括收敛速率和最小梯度范数平方的收敛速率,为参数 r 提供了连续依赖性,并且高分辨率微分方程近似模拟了关键情况下 NAG 的收敛行为。
Apr, 2023
本文针对复合优化问题中一般且高效的不精确近端拟牛顿算法,在强凸目标函数下分析了其精确和不精确执行的收敛性质,并建立了一个简单的停止标准来改善其实用性。同时,对基于 FISTA 的近端拟牛顿算法进行加速,并与传统算法进行比较和分析,结果表明加速并没有带来任何好处。
Jul, 2016
对于大部分基于凸优化的统计 $M$- 估计器,我们分析了解决这些问题的渐进收敛速度,并在高维框架中工作,我们定义了适当限制的条件,并证明了这些条件适用于各种统计模型,我们的理论保证了项目的概率几何收敛速度不断提高,最高可达到模型的统计精度,这个结果比以往收敛结果更加尖锐,这适用于 $M$- 估计器和各种统计模型,展现了高维估计中统计精度和计算效率的有趣联系。
Apr, 2011
研究了 Nesterov 加速梯度方法在随机逼近和有限和设置下的表现,发现使用通常的步长和动量参数,该方法在后者可能发散,进而阐明了这种方法在此情况下可能失败的原因。
Feb, 2020
通过研究表明,在现代机器学习中,采用具有极高表现力的模型进行训练,可以实现完全拟合或内插数据,从而得到零训练损失。我们证明,采用恒定步长随机梯度下降法(SGD)与 Nesterov 加速法具有相同的收敛速度,适用于凸和强凸函数。同时,我们发现,SGD 可以在非凸情况下像全梯度下降法一样高效地找到一阶稳定点。最后,我们通过对合成和真实数据集的实验验证了我们的理论发现。
Oct, 2018
我们开发了一个新的框架来研究光滑和强凸优化算法,特别是针对二次函数,我们能够将优化算法作为线性运算的递归应用程序来检查,这揭示了一种强大的联系,即一类优化算法与多项式的分析理论之间的联系,从而导出了新的下界和上界,同时我们还以多项式相关的最优解的形式表达它,从而对 Nesterov 著名的加速梯度下降方法进行了新的系统推导。
Mar, 2015
本论文针对 LASSO 问题,通过局部线性收敛界限、谱分析等方法,研究了 ISTA 和 FISTA 方法在迭代中的效率,并展示了在接近解时,ISTA 方法速度更快的现象,为更好地解决问题提供了策略指导。
Jan, 2015