BriefGPT.xyz
Ask
alpha
关键词
diminishing learning rate
搜索结果 - 2
随机梯度算法的新收敛性特点
本文对随机梯度下降法(SGD)的收敛性进行了分析,提出了一种新的假设随机梯度较真实梯度的范数更小的分析方法,并在多个情境下证明了 SGD 的收敛性,拓展了当前一类可达到收敛性的学习率。
PDF
6 years ago
SGD 和 Hogwild!:在无需有界梯度假设的情况下收敛
该研究论文讨论了随机梯度下降算法的收敛性分析,提出了一种在异步并行环境下使用降低学习率机制的算法,并证明了其收敛性。
PDF
6 years ago
Prev
Next