BriefGPT.xyz
Ask
alpha
关键词
stochastic non-convex optimization
搜索结果 - 3
自适应梯度方法在细化平滑度和噪声假设下的收敛分析
分析了 AdaGrad 在随机非凸优化中收敛速率,证明了存在优于 SGD 的收敛速度,并给出了收敛速率的上界和下界。
PDF
a month ago
私有随机非凸优化:自适应算法和更紧的泛化界
研究不同 ially private (DP) 算法在随机非凸优化中的应用,通过提供对私有梯度法的分析,提出了 DP RMSProp 和 DP Adam 等最佳算法来达成更快的收敛速度,在两个流行的深度学习任务中,证明了 DP 自适应梯度法
→
PDF
4 years ago
NIPS
强高概率二阶收敛的随机非凸优化
本文研究带有非凸随机函数的随机非凸优化,并提出一种称为 NCG-S 的新型更新步骤,可以在高概率下实现二阶收敛,所提出的随机算法是首个具有高概率二阶收敛和几乎是线性时间复杂度的方法。
PDF
7 years ago
Prev
Next