BriefGPT.xyz
Ask
alpha
关键词
local statistical gradient descent
搜索结果 - 1
利用损失函数的二阶信息加速收敛的本地随机梯度下降
该论文通过理论分析和实验证明,本地统计梯度下降(L-SGD)可以更有效地探索损失函数的二阶信息,从而比随机梯度下降(SGD)更快地收敛。
PDF
a year ago
Prev
Next