本文研究了在线增强学习的任务,重点探讨在线弱分类器的不同之处,提出了一种新颖的在线增强算法,并通过理论分析设计了算法参数以及确定弱分类器个数等问题,实验结果表明所提出的算法比现有的在线算法效果更好。
Jun, 2012
该研究分析了梯度下降算法,引入了新的弱学习器性能度量,并扩展了 Boosting 方法,以支持任意凸损失函数,并给出了相应的弱到强的收敛结果。
May, 2011
我们提出了一种新的在线增强算法,用于调整分类器权重,该算法与 Freund 和 Schapire 的 AdaBoost 算法更接近,同时还贡献了一种得出在线算法的新方法,其将以前的在线增强工作联系在一起。
Oct, 2008
研究在线提升的两种算法:boost-by-majority 和自适应在线提升算法,证明其在可接受精度下基本上是最优的。两种算法都能处理样本的重要性权重,并且使用了在线损失最小化技术。
Feb, 2015
我们研究了在线版本的 GentleAdaboost,通过在线方式将弱学习器与强学习器相结合。我们提供了一种将批量方法扩展为在线方法的途径,并通过线搜索的应用进行了理论上的证明。最后,我们将我们的在线增强方法与其他在线方法在各种基准数据集上进行了比较。
Aug, 2023
通过利用增强学习和在线学习之间的对偶性,提出了一个强大的增强学习框架,开发了多种算法解决了多个实用和理论上有趣的问题,包括稀疏增强、平滑分布增强、识别学习和一些在线学习算法的广义化。
Sep, 2014
本文针对一种最先进的预测技术 —— 梯度提升方法,通过解决无限维凸优化问题,顺序地生成一个由简单预测器(通常为决策树)的线性组合构成的模型。我们对两个广泛使用的梯度提升版本进行了彻底的分析,并从函数优化的角度引入了一个通用框架来研究这些算法。证明了它们在迭代次数趋近于无穷时的收敛性,并强调了具有强凸风险函数的重要性。我们还提供了一个合理的统计环境,确保在样本大小增长时提高了预测器的一致性。在我们的方法中,优化程序是无限运行的(也就是说,没有采用早期停止策略),并且通过适当的 $L^2$ 损失惩罚和强凸性论证来实现统计正则化。
Jul, 2017
本文介绍了在学习增强的在线算法中使用回归技术来预测未来输入参数的方法,并在广义滑雪租赁、装箱问题、最小完成时间调度等一般在线搜索方案的背景下探讨了这种方法。通过在设计回归问题的损失函数中结合在线优化基准,我们显示了这种回归问题样本复杂度的近似上下界,并将我们的结果扩展到了不可知设置。
May, 2022
该论文提出了一种新颖的梯度提升框架,其中浅层神经网络被用作 “弱学习器”,该框架考虑了一般的损失函数,并针对分类、回归和排序学习提供了具体的示例。该模型通过完全修正步骤纠正了经典梯度提升决策树贪婪函数逼近的缺陷,并在多个数据集上的三项任务中表现出超越同类方法的结果。本文还进行了削减研究,以探讨每个模型组成部分和模型超参数的影响。
Feb, 2020
本文提出了基于多层在线集成的在线凸优化方法,具有两种不同的适应性水平,并针对强凸、指数 - 凹和凸损失函数分别获得了收敛等效性和遗憾上界。
Jul, 2023