Mar, 2015

凸损失函数学习的迭代正则化

TL;DR本文提出了一种基于次梯度方法的新型迭代正则化形式,经过实验迭代停止可以实现广义化。在再生核希尔伯特空间的非参数设定下,我们证明了在一般正则条件下的有限样本损失风险界。本研究提供了一类高效正则化学习算法,并给出了统计学和优化学在机器学习中相互作用的见解。