非凸优化中伽玛凸函数的连续加速
本文研究了一类名为 'quasar-convex function' 的函数,该函数在实践中证明具有类似于凸性的结构性质,并且通过比较其最优解的收敛速率得到了类似于凸函数的复杂度上界,从而表明该函数类能够实现有效的优化过程。
Oct, 2020
该论文介绍了一种通用的方案,使用最初设计用于最小化凸函数的梯度下降算法来解决非凸优化问题,该方案允许我们将这些方法用于弱凸性目标,这涵盖了机器学习和信号处理中通常出现的大类非凸函数。该方案无需假定目标函数具有凸性,而是通过自适应于未知的弱凸性常数来实现其保证。最后,本文还展示了将该方案应用于增量算法的几个实验结果。
Mar, 2017
本文介绍了一种新的非均匀光滑条件下的优化方法,并开发出一种简单但有效的分析技术来限制沿轨迹的梯度,从而获得更强的凸优化和非凸优化问题的结果。我们通过这种新方法证明了(随机)梯度下降和 Nesterov 加速梯度法在这种一般的光滑条件下的收敛率,而不需要梯度剪裁,并允许在随机场景中的有界方差的重尾噪声。
Jun, 2023
本研究介绍了一种新的 Nesterov 加速梯度下降法的变体,以应对光滑非凸函数的最小化问题,证明其收敛速度可以接近凸函数,在处理非凸函数方面具有优异的性能,并在此基础上提出了一种基于负曲率的证明非凸性的方法,在具有 Lipschitz 连续梯度和黑塞矩阵的情况下,可以在较少的梯度和函数计算次数内找到目标点。
May, 2017
我们提出了一种新的优化方法,通过类似于椭球体法的简单几何解释,实现了超平滑何强凸函数的无约束优化,并在数值实验中证明了其优于 Nesterov 加速梯度下降。
Jun, 2015
本文提出了一种具有 Nesterov 加速梯度的随机(在线)拟牛顿方法,用于解决神经网络中的大规模非凸优化问题,结果表明其性能优于传统的二阶 oBFGS 和 oLBFGS 方法以及常用的一阶随机梯度方法,还在不同的动量率和批处理大小下进行了说明。
Sep, 2019
本文研究随机版归一化梯度下降算法,并证明了该算法在优化拥有拟凸和局部 Lipschitz 性质的函数时,能够保证收敛到全局最优解。与标准的随机梯度下降算法不同的是,该算法要求使用最小的小批量大小,以避免梯度爆炸等问题。
Jul, 2015
本文针对复合优化问题中一般且高效的不精确近端拟牛顿算法,在强凸目标函数下分析了其精确和不精确执行的收敛性质,并建立了一个简单的停止标准来改善其实用性。同时,对基于 FISTA 的近端拟牛顿算法进行加速,并与传统算法进行比较和分析,结果表明加速并没有带来任何好处。
Jul, 2016
研究了带有准自共轭平滑成分的复合凸优化问题,通过使用基本的牛顿法结合梯度正则化,提出了一种简单而高效的算法,并应用于多个实际问题,包括逻辑回归、软最大和矩阵缩放,无需对目标函数进行额外的假设,并且获得了快速全局线性收敛率。
Aug, 2023