BriefGPT.xyz
Jan, 2024
超过Lipschitz连续性的随机弱凸优化
Stochastic Weakly Convex Optimization Beyond Lipschitz Continuity
HTML
PDF
Wenzhi Gao, Qi Deng
TL;DR
本研究考虑在没有标准Lipschitz连续性假设的随机弱凸优化问题中,基于新的自适应正则化(步长)策略,我们展示了一类广泛的随机算法包括随机次梯度法在具有恒定错误率的情况下保持O(1/√K)的收敛速率。我们的分析基于弱假设:Lipschitz参数可以由||x||的一般增长函数界定,或通过独立随机样本进行局部估计。
Abstract
This paper considers
stochastic weakly convex optimization
without the standard Lipschitz continuity assumption. Based on new
adaptive regularization
(stepsize) strategies, we show that a wide class of
→