Apr, 2012

从优化角度学习

TL;DR本文分为两部分,第一部分研究了统计学习问题的可学习性和在线学习问题的泛化能力,使用稳定性和经典工具如Rademacher复杂度和覆盖数,发现一般学习环境下统一收敛理论无法检测可学习性,第二部分针对凸优化问题提出了适当的镜像下降更新以及MD算法在凸优化问题上的可行性研究,证明线性类的fat-shattering维度限制了预测问题的oracle复杂度。