研究在线提升的两种算法:boost-by-majority 和自适应在线提升算法,证明其在可接受精度下基本上是最优的。两种算法都能处理样本的重要性权重,并且使用了在线损失最小化技术。
Feb, 2015
我们研究了在线版本的 GentleAdaboost,通过在线方式将弱学习器与强学习器相结合。我们提供了一种将批量方法扩展为在线方法的途径,并通过线搜索的应用进行了理论上的证明。最后,我们将我们的在线增强方法与其他在线方法在各种基准数据集上进行了比较。
Aug, 2023
本文研究了在线增强学习的任务,重点探讨在线弱分类器的不同之处,提出了一种新颖的在线增强算法,并通过理论分析设计了算法参数以及确定弱分类器个数等问题,实验结果表明所提出的算法比现有的在线算法效果更好。
Jun, 2012
本文将扩展反推理论以解决在线学习中的回归问题,提出了两种弱学习算法模型,并提出一种在线梯度推进算法将弱学习算法转化为强学习算法,同时介绍了一种更简单的反推算法,并证明了其最优性。
Jun, 2015
通过利用增强学习和在线学习之间的对偶性,提出了一个强大的增强学习框架,开发了多种算法解决了多个实用和理论上有趣的问题,包括稀疏增强、平滑分布增强、识别学习和一些在线学习算法的广义化。
Sep, 2014
该研究论文介绍了提升算法的基本概念,通过对 AdaBoostV 算法的研究,提出了一种新算法可以同时减少基本假设的数量和提高最小间隔的质量,并进一步证明其最优性。
Jan, 2019
AdaBoost 不是真正的优化算法,而是一种将多个弱分类器组合成强分类器的方法,它的结果可以通过真值表进行明确计算。本研究以两个类别的问题为例,以三个二元分类器为例,与 Python 库 scikit-learn 中的 AdaBoost 算法进行比较。
本文分析并评估了一种采用逐坐标调整学习率的在线梯度下降算法,该算法可被视为带有对角先决条件的批量梯度下降的在线版本。实验结果表明,该算法在大规模机器学习问题中与最先进的算法相竞争,并带来更强的遗憾边界。
Feb, 2010
研究如何将机器学习预测融入在线算法以提高性能,并提供非平凡的下界来衡量竞争分析的最优权衡.
Oct, 2020
该论文提出了一个新的学习框架,结合了在线集成算法和成批的代价敏感采样 / 提升算法,有效地解决了同时处理代价敏感学习和在线学习的问题。
Oct, 2013