本研究提出了一种新的随机回归森林算法,证明了其一致性,并将其与其他理论可追踪的随机森林模型及实践中使用的随机森林算法进行了比较,实验证明了不同简化随机森林模型的方法的重要性。
Oct, 2013
本研究提出了一种计算随机森林分类模型的特征贡献的方法,可以确定每个变量对单个实例的模型预测的影响,并通过分析训练数据集的特征贡献来确定最显着的变量和它们对个别类别预测的贡献模式,并阐述其在UCI基准数据集上的应用。
Dec, 2013
这篇论文提出一种名为模型抽取的方法,通过构建一个可解释程度更高的模型来近似黑箱模型,从而理解和调试机器学习模型在各种数据集上训练的结果,并在经典强化学习问题中学习控制策略。
Jun, 2017
该研究呈现了机器学习的可解释性与PDR框架,探讨了现有解释方法的分类与优劣评估,提供了实际案例并讨论了未来研究方向。
Jan, 2019
本文探讨了人们对计算机可解释性的两个定义,即可模拟性和“what if”局部解释性。其中,通过对1000名参与者进行用户研究,我们测试了人类是否能够在通常被认为是局部可解释的模型上模仿可模拟性和“what if”局部可解释性的定义,并发现运行时间操作计数与局部解释性任务的准确性呈负相关关系。此外,我们发现决策树和逻辑回归模型相比于神经网络模型,是更加容易被解释的模型。
Feb, 2019
简述了解释性机器学习领域的发展历程,综述了最新的解释方法,讨论了挑战,提出了回归建模、基于规则的机器学习、敏感性分析、因果推断和社会科学等领域的启示。
Oct, 2020
本文提出了针对随机森林模型的多目标回归问题的一种技术,通过基于规则的解释提供了一种解释能力,并与最先进的技术相比具有竞争力的解释能力。
Mar, 2023
通过提出两种森林修剪方法,我们的研究旨在实现既有随机森林的准确性又具有决策树的解释性,通过在给定随机森林中找出最佳子森林,再将选定的树组合在一起,实验证明我们的方法在准确性和所使用的树的数量方面优于当前先进的森林修剪方法。
Jan, 2024
通过优化的规则集合 (ORE) 使随机森林 (RF) 变得可解释,通过权衡预测性能、可解释性覆盖率和模型大小的权衡,提供了优秀的预测性能、可解释性覆盖率和模型大小的平衡。
Mar, 2024
本研究针对黑箱基础模型的可解释性和可理解性之间的差距,提出了一种新的可理解方法。该方法不仅克服了现有可解释方法在真实性和资源需求上的局限性,还深入分析了基础模型的工作原理,为未来研究指明了方向。
Oct, 2024