BriefGPT.xyz
Ask
alpha
关键词
variable learning rate
搜索结果 - 1
可分数据下的逻辑回归梯度下降收敛速率
本文证明了在使用可变学习率运行梯度下降时,对于逻辑回归目标函数,损失 f (x) ≤ 1.1・f (x*) + ε,其中误差 ε 按迭代次数指数下降,并按任意固定解决方案 x* 条目大小的多项式下降。该文还将这些思想应用于稀疏逻辑回归,在那
→
PDF
a year ago
Prev
Next