BriefGPT.xyz
May, 2016
多次SGM的泛化性和隐式正则化特性
Generalization Properties and Implicit Regularization for Multiple Passes SGM
HTML
PDF
Junhong Lin, Raffaello Camoriano, Lorenzo Rosasco
TL;DR
本论文研究了随机梯度方法在凸损失函数及线性参数函数学习中的泛化特性,证明了在无惩罚或约束的情况下可以通过调整步长或数据通行次数来控制算法的稳定性和逼近性质,这被看作是一个隐式正则化的形式,并给出了数值结果验证理论发现。
Abstract
We study the
generalization
properties of
stochastic gradient methods
for
learning
with
→