该研究提出一种后处理方法通过使用 EM 算法和简化模型来提高树模型的可解释性,并进行了人工合成实验以证明该方法的可行性。
Jun, 2016
本研究提出了一种通过模型简化方法(树模型的选择问题),使得复杂的树模型具有可解释性的算法,该算法可以保证预测性能的同时,将复杂的树模型逼近成最简单的表现形式
提出了两种新算法以及相应的下限,适用于树集合,展示了决策树和树集合分类训练数据集所需的切割数相比,随着树的数量增加,集合所需的切割数可能会指数级下降。
Jun, 2023
本文介绍了使用基因算法将决策树集成转换为单个决策树模型的 GENESIM 算法,其在提高预测性能方面优于决策树归纳技术,并具有与集成技术相同级别的预测性能,而产生模型的复杂性非常低,易于解释。
Nov, 2016
提出了通过表现每个类别的代表点 - 原型来解释树模型集合分类器的方法,并通过应用新的距离和自适应原型选择方法,在随机森林和梯度提升树上演示了原型的可行性,其在人类用户的研究中表现良好,并为决策树模型的解释提供了可行的替代方案。
本文提供 inTrees 框架,通过提取、衡量、修剪和选择树集合中的规则,并计算频繁的变量交互来提高树集合的可解释性。inTrees 框架可以应用于分类和回归问题,并适用于多种树集合类型,例如随机森林、正则化随机森林和 Boosted Trees。
Aug, 2014
使用增强学习方法构建多个元树以提高预测性能,防止过度深化的树引起过拟合的问题,并通过实验与单个决策树的集合进行性能比较。
Feb, 2024
该研究使用基于树的集成方法,如随机森林、梯度提升树和贝叶斯增加回归树,在许多应用和研究中成功地用于回归问题。本文研究了概率回归树的集成版本,通过将每个观测分配到相对应的概率分布区域,为目标函数提供平滑逼近。我们证明了所考虑的概率回归树的集成版本是一致的,并在实验中研究了它们的偏差 - 方差折衷,并与最先进的性能预测方法进行比较。
Jun, 2024
构建树集成模型中对抗样本的计算挑战和特征扰动的快速识别方法。
本文提出一种基于威胁模型的决策树学习算法 Treant,通过采用坚固分裂和攻击鲁棒性等两种技术手段,使得学习过程更为完整、高效,有效提高抗攻击性能。
Jul, 2019