本文提出了一种广泛且通用的框架,通过精确分析和确定弱分类器的最优需求,以及设计最有效的某种算法来应对多类别分类中存在的问题。
Aug, 2011
通过提出一种随机增强算法,我们构建了一个通用框架,将样本压缩方法扩展到支持基于子采样的随机学习算法,并输出具有单对数依赖性的投票分类器的泛化误差,相比于已知可实现的一般的弱到强学习器,我们的算法在训练样本数量方面具有更好的表现。
Feb, 2024
本文将扩展反推理论以解决在线学习中的回归问题,提出了两种弱学习算法模型,并提出一种在线梯度推进算法将弱学习算法转化为强学习算法,同时介绍了一种更简单的反推算法,并证明了其最优性。
Jun, 2015
研究在线提升的两种算法:boost-by-majority 和自适应在线提升算法,证明其在可接受精度下基本上是最优的。两种算法都能处理样本的重要性权重,并且使用了在线损失最小化技术。
Feb, 2015
该研究分析了梯度下降算法,引入了新的弱学习器性能度量,并扩展了 Boosting 方法,以支持任意凸损失函数,并给出了相应的弱到强的收敛结果。
May, 2011
本文提出了一种名为 LocalBoost 的弱监督增强框架,从两个维度(即源内和源间)迭代地增强集成模型,进而在七个数据集上达到了优于基准 boosting 方法和其他弱监督方法的表现。
Jun, 2023
本文研究了在线增强学习的任务,重点探讨在线弱分类器的不同之处,提出了一种新颖的在线增强算法,并通过理论分析设计了算法参数以及确定弱分类器个数等问题,实验结果表明所提出的算法比现有的在线算法效果更好。
Jun, 2012
本研究表明,基于提示的大型语言模型可以有效地作为弱学习器,并用于表格数据的增强算法中,它能够生成表格数据样本的文本描述,并作为分类的模板,能够完成较小幅度的提高,证明了这种大型语言模型不仅可以作为少样本学习本身,而且可以作为更大的机器学习管道的组成部分。
本研究探讨弱监督学习的泛化特性,证明了借助弱标签可以显著加速强任务的学习速率,实现 O (1/n) 的快速率,研究结果可适用于各类任务,说明弱标签如何加速强任务的学习。
Feb, 2020
本文探讨了 Boosting 算法在包括 AdaBoost 和 logistic loss 的一系列算法下,通过将弱分类器组合成低风险预测器,构建高熵分布以使得弱分类器和训练标签互不相关,证明了弱可学习性有助于整个算法族,所有 epsilon>0 情况下,只需 O (ln (1/epsilon)) 次迭代即可生成预测器,使得其经验风险与最小值之间的误差为 epsilon,同时证明了将任意实例分解为两个步骤,从而为逻辑回归损失提供匹配的下限。
Jan, 2011