本文研究了在线增强学习的任务,重点探讨在线弱分类器的不同之处,提出了一种新颖的在线增强算法,并通过理论分析设计了算法参数以及确定弱分类器个数等问题,实验结果表明所提出的算法比现有的在线算法效果更好。
Jun, 2012
我们提出了一种新的在线增强算法,用于调整分类器权重,该算法与 Freund 和 Schapire 的 AdaBoost 算法更接近,同时还贡献了一种得出在线算法的新方法,其将以前的在线增强工作联系在一起。
Oct, 2008
我们研究了在线版本的 GentleAdaboost,通过在线方式将弱学习器与强学习器相结合。我们提供了一种将批量方法扩展为在线方法的途径,并通过线搜索的应用进行了理论上的证明。最后,我们将我们的在线增强方法与其他在线方法在各种基准数据集上进行了比较。
Aug, 2023
本文将扩展反推理论以解决在线学习中的回归问题,提出了两种弱学习算法模型,并提出一种在线梯度推进算法将弱学习算法转化为强学习算法,同时介绍了一种更简单的反推算法,并证明了其最优性。
Jun, 2015
通过利用增强学习和在线学习之间的对偶性,提出了一个强大的增强学习框架,开发了多种算法解决了多个实用和理论上有趣的问题,包括稀疏增强、平滑分布增强、识别学习和一些在线学习算法的广义化。
Sep, 2014
通过提出一种随机增强算法,我们构建了一个通用框架,将样本压缩方法扩展到支持基于子采样的随机学习算法,并输出具有单对数依赖性的投票分类器的泛化误差,相比于已知可实现的一般的弱到强学习器,我们的算法在训练样本数量方面具有更好的表现。
Feb, 2024
本文介绍强适应算法及标准低遗憾算法转化为强适应算法的重要性,同时提供了用于解决多种问题的简单而有效的强适应算法。
Feb, 2015
该研究分析了梯度下降算法,引入了新的弱学习器性能度量,并扩展了 Boosting 方法,以支持任意凸损失函数,并给出了相应的弱到强的收敛结果。
May, 2011
该研究论文介绍了提升算法的基本概念,通过对 AdaBoostV 算法的研究,提出了一种新算法可以同时减少基本假设的数量和提高最小间隔的质量,并进一步证明其最优性。
Jan, 2019
本文提出了一种广泛且通用的框架,通过精确分析和确定弱分类器的最优需求,以及设计最有效的某种算法来应对多类别分类中存在的问题。
Aug, 2011