BriefGPT.xyz
Ask
alpha
关键词
stochastic gradient estimators
搜索结果 - 3
Adam 系列算法的新收敛分析
本研究通过对 Adam 优化器家族进行分析,提出了一种适用于包括 min-max、组合和双层优化问题的简单且通用的渐进收敛证明方法,并证明了使用随机梯度估计器的方差减少结果。
PDF
3 years ago
局部 SGD:统一理论和新高效方法
该论文提出了一种统一框架,用于在凸性和强凸性条件下分析本地 SGD 方法,适用于监督机器学习模型的分布式 / 联邦训练。作为该框架的应用,作者开发了多个新型优化器,特别是开发了第一个线性收敛的本地 SGD 方法,不需要任何数据同质性或其他强
→
PDF
4 years ago
黑盒变分推断的可证明梯度方差保证
本文通过研究在目标平滑、变分族为位置 - 尺度分布情况下的重参数估计器,为基于随机梯度估计器的最新变分推断方法提供了不可改善的界限。
PDF
5 years ago
Prev
Next