多类别 Boosting 理论
将增强学习推广到多类别情景中,引入了适用于多类别分类的弱学习条件,提出了一种简单高效的增强学习算法,并在列表式 PAC 学习的背景下应用其新的增强技术,证明了其可行性和可靠性。
Jul, 2023
通过提出一种随机增强算法,我们构建了一个通用框架,将样本压缩方法扩展到支持基于子采样的随机学习算法,并输出具有单对数依赖性的投票分类器的泛化误差,相比于已知可实现的一般的弱到强学习器,我们的算法在训练样本数量方面具有更好的表现。
Feb, 2024
该研究开发了一种针对二进制分类的分类器集成的最坏情况分析方法,通过一种叫做极小极大解的方法可以找出在一个已知的未标记数据集上,一个加权组合的分类器可以比任何单个分类器的表现要好得多。
Mar, 2015
AdaBoost 不是真正的优化算法,而是一种将多个弱分类器组合成强分类器的方法,它的结果可以通过真值表进行明确计算。本研究以两个类别的问题为例,以三个二元分类器为例,与 Python 库 scikit-learn 中的 AdaBoost 算法进行比较。
Aug, 2023
研究在线提升的两种算法:boost-by-majority 和自适应在线提升算法,证明其在可接受精度下基本上是最优的。两种算法都能处理样本的重要性权重,并且使用了在线损失最小化技术。
Feb, 2015
本文提出了一种新的增强算法 ProBoost,它利用每个训练样本的认识不确定性确定最具挑战性 / 不确定性的样本,从而使得下一个弱学习器的相关性得到提高,生成一个逐渐聚焦于具有最高不确定性的样本的序列。此外,还介绍了三种操作训练集的方法和两种集成组合的方法,并对基于变分推断或蒙特卡洛丢失的不确定性估计的概率模型进行了研究。在 MNIST 基准数据集上进行的实验评估表明,ProBoost 能够显著提高性能。
Sep, 2022
本文研究了在线增强学习的任务,重点探讨在线弱分类器的不同之处,提出了一种新颖的在线增强算法,并通过理论分析设计了算法参数以及确定弱分类器个数等问题,实验结果表明所提出的算法比现有的在线算法效果更好。
Jun, 2012
研究多分类预测问题,提出了一种名为 ShareBoost 算法的模型,能够使用少量、共享的特征进行预测,并证明该模型具有较小的泛化误差。通过一系列与其他算法相比的实验证明了该方法的有效性。
Sep, 2011
本文将扩展反推理论以解决在线学习中的回归问题,提出了两种弱学习算法模型,并提出一种在线梯度推进算法将弱学习算法转化为强学习算法,同时介绍了一种更简单的反推算法,并证明了其最优性。
Jun, 2015