NIPSJan, 2011

Boosting 的原始 - 对偶收敛分析

TL;DR本文探讨了 Boosting 算法在包括 AdaBoost 和 logistic loss 的一系列算法下,通过将弱分类器组合成低风险预测器,构建高熵分布以使得弱分类器和训练标签互不相关,证明了弱可学习性有助于整个算法族,所有 epsilon>0 情况下,只需 O (ln (1/epsilon)) 次迭代即可生成预测器,使得其经验风险与最小值之间的误差为 epsilon,同时证明了将任意实例分解为两个步骤,从而为逻辑回归损失提供匹配的下限。