关键词stochastic proximal gradient method
搜索结果 - 3
- 使用 Polyak 动量的非凸随机复合优化
该论文研究了在采用小型或有界批量大小时,在非凸设置中具有重要意义的随机近端梯度法,证明了该方法在非凸复合优化问题中达到最优的收敛速度,并且严格分析了 Polyak 动量在复合优化设置中的方差缩减效应,同时证明了在近似解决近端步骤的情况下,该 - 关于随机(方差减少)近端梯度法在正则化期望回报优化中的应用
基于正则化预期奖励优化问题,我们应用分析了经典的随机近端梯度方法,在标准条件下表明该方法在收敛到 ε- 稳定点的样本复杂度为 O (ε^{-4})。考虑到经典随机梯度估计器的方差通常较大,导致收敛速度变慢,我们还应用了一种高效的随机方差缩减 - NIPS大规模优化的随机主支配 - 最小化算法
本文提出了一种可扩展的随机主化最小化方案,能够应对大规模或可能无限的数据集,解决凸优化问题,并开发了几种基于此框架的有效算法,包括一个新的随机近端梯度方法,用于大规模 l1 逻辑回归的非凸稀疏估计的在线 DC 编程算法和解决大规模结构矩阵分