Jun, 2008

截断梯度稀疏在线学习

TL;DR这篇论文提出了一种新方法,称为截断梯度 (truncated gradient),可以在凸损失函数的在线学习算法中诱导稀疏性,该方法具有连续控制稀疏化程度的参数,类似于 $L_1$ 正则化方法,理论上可以证明小的稀疏化率仅会导致额外的小代价,并且在实践中取得了良好的效果。