使树集成模型可解释性:贝叶斯模型选择方法
本文提供 inTrees 框架,通过提取、衡量、修剪和选择树集合中的规则,并计算频繁的变量交互来提高树集合的可解释性。inTrees 框架可以应用于分类和回归问题,并适用于多种树集合类型,例如随机森林、正则化随机森林和 Boosted Trees。
Aug, 2014
本研究旨在解决决策树集成在多领域应用时造成的可解释性下降,提出了 Born-Again 树集成的方法,通过动态规划算法生成出在实际数据集上表现优异的 Born-Again 树模型,以在不牺牲分类器性能的前提下获得更高的可解释性。
Mar, 2020
提出了一种用于构建决策树的方法,可以近似复杂机器学习模型的性能,可用于解释和简化随机森林(RFs)和其他模型的预测模式。在医学问卷中,树形结构特别有意义,因为它使问卷自适应地缩短,减轻回答负担。 研究了分裂的渐近行为,并引入了一种改进的分裂方法,旨在稳定树形结构。经实验证明,我们的方法可以同时实现高近似性和稳定性。
Oct, 2016
提出了通过表现每个类别的代表点 - 原型来解释树模型集合分类器的方法,并通过应用新的距离和自适应原型选择方法,在随机森林和梯度提升树上演示了原型的可行性,其在人类用户的研究中表现良好,并为决策树模型的解释提供了可行的替代方案。
Nov, 2016
该研究使用基于树的集成方法,如随机森林、梯度提升树和贝叶斯增加回归树,在许多应用和研究中成功地用于回归问题。本文研究了概率回归树的集成版本,通过将每个观测分配到相对应的概率分布区域,为目标函数提供平滑逼近。我们证明了所考虑的概率回归树的集成版本是一致的,并在实验中研究了它们的偏差 - 方差折衷,并与最先进的性能预测方法进行比较。
Jun, 2024
通过提出两种森林修剪方法,我们的研究旨在实现既有随机森林的准确性又具有决策树的解释性,通过在给定随机森林中找出最佳子森林,再将选定的树组合在一起,实验证明我们的方法在准确性和所使用的树的数量方面优于当前先进的森林修剪方法。
Jan, 2024
这篇论文提出一种名为模型抽取的方法,通过构建一个可解释程度更高的模型来近似黑箱模型,从而理解和调试机器学习模型在各种数据集上训练的结果,并在经典强化学习问题中学习控制策略。
Jun, 2017