Nov, 2023
在轻松平滑条件下的参数无关优化
Parameter-Agnostic Optimization under Relaxed Smoothness
TL;DR通过理论和实验证明,Normalized Stochastic Gradient Descent with Momentum算法在没有先验知识的情况下可以实现(接近)最优复杂度,但复杂度中引入了一个依赖于(L_1)的指数项,这是不可避免的。同时,在确定性设置下,可以通过使用Gradient Descent with a Backtracking Line Search来抵消指数因子。这是首个在广义平滑条件下提出的无需参数设置的收敛结果。