基于最先进的梯度提升算法的分类性能基准测试
本文提出了一种新的方法来解释AdaBoost和随机森林的工作原理,即它们都能产生类似的“尖峰平缓”的分类器,且并不需要规则化或早期停止。
Apr, 2015
本文研究了三个软件Gradient Boosting Decision Trees (GBDTs) packages: XGBoost, LightGBM和Catboost的GPU加速性能以及在超参数优化方面的比较,并注意到GBDTs的许多超参数需手动调整或自动优化,以达到最佳预测能力。
Sep, 2018
本研究提出了一种基于梯度提升的代理模型,并使用分位数回归来提供未观察到的超参数设置的性能的乐观估计,同时结合未观察到和观察到的超参数设置之间的距离度量来帮助调节探索。经实证表明,该方法能够在一系列分类问题中优于一些最新的技术。
Jan, 2021
本文研究了Gradient Boosting Decision Tree模型中的split finding algorithm偏差问题,提出了新的无偏gain量度方法并在UnbiasedGBM模型中应用,实验结果表明UnbiasedGBM在60个数据集上表现更好,无偏gain在特征选择上也较其他方法表现更好。
May, 2023
SigOpt Mulch是一种旨在自动调整GBTs超参数的、具有模型感知能力的超参数调优系统,通过元学习和多保真度优化等技术实现模型感知型超参数的优化,减少了用户领域知识的需求,从而比现有黑盒超参数调优系统更高效、更无缝、更用户友好地实现了GBTs优秀的超参数识别。
Jul, 2023
该研究介绍了一种名为Robust-GBDT的噪声鲁棒增强模型,该模型在多类分类任务中应用广泛,通过采用凸可靠损失函数和处理类不平衡的新型鲁棒损失函数,有效抵抗标签噪声和类别不平衡,提高了分类准确性和泛化能力。
Oct, 2023
本研究针对超参数优化的复杂性,探讨了平衡偏差和方差的挑战。通过实证分析,评估了三种超参数调优算法,发现非线性模型在适当调优的情况下显著优于线性模型。研究表明,不同算法在各任务和模型类型下表现各异,因此选择合适的调优方法至关重要。
Aug, 2024
本研究解决了梯度提升分类器(GBC)在训练和预测过程中的具体问题,特别是终端节点值$γ_j$的计算。通过泰勒级数近似,我们提出了一种新方法来优化逻辑损失函数,并提供了算法实现的详细伪代码。这项工作展示了GBC在二分类任务中的有效性,具有重要的应用价值。
Oct, 2024