树形集成模型的可解释性
本研究提出了一种通过模型简化方法(树模型的选择问题),使得复杂的树模型具有可解释性的算法,该算法可以保证预测性能的同时,将复杂的树模型逼近成最简单的表现形式
Jun, 2016
本研究旨在解决决策树集成在多领域应用时造成的可解释性下降,提出了 Born-Again 树集成的方法,通过动态规划算法生成出在实际数据集上表现优异的 Born-Again 树模型,以在不牺牲分类器性能的前提下获得更高的可解释性。
Mar, 2020
本文提供 inTrees 框架,通过提取、衡量、修剪和选择树集合中的规则,并计算频繁的变量交互来提高树集合的可解释性。inTrees 框架可以应用于分类和回归问题,并适用于多种树集合类型,例如随机森林、正则化随机森林和 Boosted Trees。
Aug, 2014
提出了通过表现每个类别的代表点 - 原型来解释树模型集合分类器的方法,并通过应用新的距离和自适应原型选择方法,在随机森林和梯度提升树上演示了原型的可行性,其在人类用户的研究中表现良好,并为决策树模型的解释提供了可行的替代方案。
Nov, 2016
通过集成多角度解释的各种解释方法,本研究提出了一种新的适用于可解释性学习的方法,即集成解释方法。实验结果显示,集成解释方法更稳定,并且更符合人类经验和认知。作为应用,我们将集成解释方法用于特征选择,从而显著改善了相应学习模型的泛化性能。
Dec, 2023
提出了一种用于构建决策树的方法,可以近似复杂机器学习模型的性能,可用于解释和简化随机森林(RFs)和其他模型的预测模式。在医学问卷中,树形结构特别有意义,因为它使问卷自适应地缩短,减轻回答负担。 研究了分裂的渐近行为,并引入了一种改进的分裂方法,旨在稳定树形结构。经实验证明,我们的方法可以同时实现高近似性和稳定性。
Oct, 2016
这篇论文提出一种名为模型抽取的方法,通过构建一个可解释程度更高的模型来近似黑箱模型,从而理解和调试机器学习模型在各种数据集上训练的结果,并在经典强化学习问题中学习控制策略。
Jun, 2017
本文提出了一种新的框架来学习规则集合模型,该模型既准确又可解释,该模型的可解释性通过评估模型所需表达预测所需的规则数量来评估,并提出了一种促进局部可解释性的正则化器,通过局部搜索的坐标下降算法来学习规则集合。实验结果表明,与现有方法(包括 RuleFit)相比,我们的方法学习规则集合时所需规则数量更少,同时仍然保持相当的准确性。
Jun, 2023
使用模型树作为替代模型,将特征空间通过决策规则划分为可解释的区域,然后利用基于加性主效应的可解释模型来近似黑盒模型的行为,平衡可解释性和性能,对比了四种模型树算法,最后提供了用户特定的推荐概述。
Oct, 2023