使用梯度下降学习决策树
提出了一种名为 mGBDTs 的多层 GBDT 森林算法,通过堆叠多层回归 GBDTs 作为其构建块,探索学习分层表示能力。该模型可以通过变体的跨层目标传播进行联合训练,无需反向传播或可微分性,并在性能和表示学习能力方面得到了证实。
May, 2018
该论文提出了一种算法,该算法能够基于全局目标同时优化决策树的所有级别的分裂函数和叶参数,使用随机梯度下降进行优化,实验结果表明,该算法相比贪心算法在分类任务的表现优秀。
Nov, 2015
本文提出了 GRANDE,一种基于梯度的决策树集成模型,通过端到端梯度下降学习硬性、轴对齐的决策树集成模型。GRANDE 基于树集成的稠密表示,利用直线传播运算符对所有模型参数进行联合优化。通过结合轴对齐分割和基于梯度的优化,我们的方法既具备了适合表格数据的归纳偏好,又具备了优化的灵活性。此外,我们还引入了一种高级的逐实例加权方法,有助于在单个模型中学习简单和复杂的关系。我们在一个预定义的基准测试集上进行了广泛的评估,并且证明我们的方法在大多数数据集上胜过现有的梯度提升和深度学习框架。
Sep, 2023
融合去噪扩散概率模型和梯度提升方法,引入扩散增强范式以解决监督学习问题。我们开发了扩散增强树(DBT),它可以被视为一种新的去噪扩散生成模型,其参数由决策树(每个扩散时间步长一个单一树)进行参数化,同时也是一种新的提升算法,可以把弱学习器结合成条件分布的强学习器,而不对其密度形式进行显式的参数化假设。通过实验证明了 DBT 相较于基于深度神经网络的扩散模型的优势,以及 DBT 在真实回归任务上的能力,并展示了将 DBT 应用于表格数据(欺诈检测)进行分类学习且具备学习推迟的能力。
Jun, 2024
本研究提出了一种基于动态规划和搜索的学习算法来实现最优决策树,这种算法支持对树的深度和节点数量设置限制,并在实验证明使用我们的算法只需要很短的时间就可以处理具有成千上万个实例的数据集,从而极大地提高了最优决策树的实用性。
Jul, 2020
本文探讨了使用 LSTMs 将优化算法设计转化为学习问题的方法,其中,通过让算法自动地利用感兴趣的问题中的结构,得出的学习算法在针对特定任务时比手动设计的算法表现更好,同时在具有相似结构的新任务上也具有很好的泛化性能,其应用范围从简单的凸问题,到神经网络训练和图像风格化等多种任务。
Jun, 2016
AI 模型的可解释性使用户能够建立对这些 AI 的信任。我们展示了通过深度强化学习学习决策树的一个方法,从而通过透明地显示输入的关键特征来实现模型的解释性。
Sep, 2023
决策树在可解释的机器学习中是重要的预测模型,本文介绍了一种新的蒙特卡洛树搜索算法 (TSDT),在在线环境中通过汤普森抽样来产生最优的决策树,并经过实验证明该算法在几个基准测试中表现优于现有算法,并具有适用于在线环境的实际优势。
Apr, 2024