解读分析计算在 AdaBoost 编码中的失效
我们提出了一种新的在线增强算法,用于调整分类器权重,该算法与 Freund 和 Schapire 的 AdaBoost 算法更接近,同时还贡献了一种得出在线算法的新方法,其将以前的在线增强工作联系在一起。
Oct, 2008
通过整合多个弱学习器以构建强学习器,本论文综合了多个视角对 AdaBoost 算法的动态性进行探究,并将它们以相同的形式统一起来,旨在帮助非专业读者更好地理解 AdaBoost 的动态和各种视角之间的等价性和关联性。
Oct, 2023
通过提出一种随机增强算法,我们构建了一个通用框架,将样本压缩方法扩展到支持基于子采样的随机学习算法,并输出具有单对数依赖性的投票分类器的泛化误差,相比于已知可实现的一般的弱到强学习器,我们的算法在训练样本数量方面具有更好的表现。
Feb, 2024
研究在线提升的两种算法:boost-by-majority 和自适应在线提升算法,证明其在可接受精度下基本上是最优的。两种算法都能处理样本的重要性权重,并且使用了在线损失最小化技术。
Feb, 2015
研究两种方法来提高 AdaBoost 算法对标签误差的鲁棒性,一种是使用标签噪声鲁棒的分类器作为基础学习器,另一种则是修改 AdaBoost 算法以提高鲁棒性。实证评估表明,鲁棒分类器的集合虽然比不考虑标签噪声的 AdaBoost 算法收敛得更快,但仍容易出现标签误差。然而,将其与我们在此提出的新的鲁棒 Boosting 算法配对,能够获得更具弹性的算法。
Sep, 2013
我们研究了在线版本的 GentleAdaboost,通过在线方式将弱学习器与强学习器相结合。我们提供了一种将批量方法扩展为在线方法的途径,并通过线搜索的应用进行了理论上的证明。最后,我们将我们的在线增强方法与其他在线方法在各种基准数据集上进行了比较。
Aug, 2023
本文探讨了 Boosting 算法在包括 AdaBoost 和 logistic loss 的一系列算法下,通过将弱分类器组合成低风险预测器,构建高熵分布以使得弱分类器和训练标签互不相关,证明了弱可学习性有助于整个算法族,所有 epsilon>0 情况下,只需 O (ln (1/epsilon)) 次迭代即可生成预测器,使得其经验风险与最小值之间的误差为 epsilon,同时证明了将任意实例分解为两个步骤,从而为逻辑回归损失提供匹配的下限。
Jan, 2011
该研究论文介绍了提升算法的基本概念,通过对 AdaBoostV 算法的研究,提出了一种新算法可以同时减少基本假设的数量和提高最小间隔的质量,并进一步证明其最优性。
Jan, 2019