BriefGPT.xyz
Ask
alpha
关键词
convergence proofs
搜索结果 - 4
Adam 算法在宽松条件下的收敛性
本文提供了自适应矩估计(Adam)算法对于广泛类别的优化目标的收敛性严谨证明,并在更为现实的条件下证明了 Adam 算法可收敛于 ε- 稳定点。同时,我们提出了一种方差抑制的加速梯度复杂度版本的 Adam 算法。
PDF
a year ago
在线和随机优化中自适应正则化的统一方法
论文描述了一种框架,用于推导和分析在线优化算法,包括数据相关正则化,称为预调节。该框架捕获和统一了许多关于自适应在线方法的现有文献,包括 AdaGrad 和 Online Newton Step 算法及其对角线版本。我们得到了这些算法的新收
→
PDF
7 years ago
强调时间差分学习的收敛性
本文研究了在带有有限状态的折扣马尔可夫决策过程中对策略进行强调时间差分学习的算法。我们提出了 ELSTD(λ)和 ETD(λ)的首个收敛性证明,并针对一般的离线策略研究了 ELSTD(λ)迭代的 $L^1$ 收敛和使用单个无限长轨迹计算的近
→
PDF
9 years ago
测地线加速度与非线性最小二乘的小曲率近似
本文介绍了一种叫做测地线加速的二阶修正方法,该方法可以提高 Levenberg-Marquardt 算法的性能,并证明了该方法可以通过适当的适应,扩展到三次阶。同时,该方法并不试图改善 Gauss-Newton 逼近 Hessian 方法,
→
PDF
12 years ago
Prev
Next