Forest-ORE:挖掘最佳规则集合解释随机森林模型
该论文提出了 FIRE (快速可解释规则提取) 算法,通过优化框架从树集成模型中提取出易于理解的、稀疏的代表性决策规则集合,同时鼓励规则融合以提高模型可解释性,算法通过特殊优化器可实现 40 倍于现有优化器的性能。实验表明,该方法在构建稀疏规则集方面优于现有算法,并能提供比现有方法更可解释的模型。
Jun, 2023
在机器学习模型中,为了避免社会伦理问题影响人们的生活,必须对决策过程进行透明解释。为此,本文提出了一种名为 LionForests 的随机森林解释技术,其提供规则作为解释,并在二元分类任务到多类别分类和回归任务中均适用,并且通过实验表明了其有效性和其与先前技术的不同之处。
Apr, 2021
本研究提出了一种通过模型简化方法(树模型的选择问题),使得复杂的树模型具有可解释性的算法,该算法可以保证预测性能的同时,将复杂的树模型逼近成最简单的表现形式
Jun, 2016
本文提出了一种新的框架来学习规则集合模型,该模型既准确又可解释,该模型的可解释性通过评估模型所需表达预测所需的规则数量来评估,并提出了一种促进局部可解释性的正则化器,通过局部搜索的坐标下降算法来学习规则集合。实验结果表明,与现有方法(包括 RuleFit)相比,我们的方法学习规则集合时所需规则数量更少,同时仍然保持相当的准确性。
Jun, 2023
通过提出两种森林修剪方法,我们的研究旨在实现既有随机森林的准确性又具有决策树的解释性,通过在给定随机森林中找出最佳子森林,再将选定的树组合在一起,实验证明我们的方法在准确性和所使用的树的数量方面优于当前先进的森林修剪方法。
Jan, 2024
这篇论文介绍了一种针对决策树模型的 OutOf-Distribution(OOD)泛化的新颖有效解决方案,名为不变决策树(IDT)。IDT 通过在树的生长过程中对于不同环境下分割的不稳定 / 变化行为施加惩罚项来实现 OOD 泛化。通过理论结果和合成以及真实数据集的数值测试,证实了所提出的方法的优越性能,表明决策树模型的 OOD 泛化是绝对必要且应该更加关注。
Dec, 2023