处理决策树中的解释冗余问题
该研究提出了一种计算 DT 的极小解释集 PI-explanations 的新模型,该模型可在多项式时间内计算一个 PI-explanation,并将枚举 PI-explanations 减少到枚举最小击中集的数量。实验结果表明,在大多数情况下,DT 的路径是 PI-explanations 的子集。
Oct, 2020
本篇论文研究用于决策树的最小的 delta 相关集的计算方法,提出两种用于计算决策树最小的 delta 相关集的逻辑编码并设计一个多项式时间复杂度的算法,并且实验结果表明这些计算方法是实用的。
May, 2022
本文研究布尔决策树在导出、最小化和计数足够原因和对比解释方面的计算能力,证明了给定决策树的实例的最小大小的所有足够原因集合可以指数级大于输入大小,因此生成完整的足够原因集合可能是不可行的,而生成一个足够原因集无法证明是充分的,介绍了相关特征和必要特征的概念以及解释重要性的概念,并展示了如何通过一个模型计数操作获取特征重要性和足够原因的数量,最后表明,与足够的理由不同,决策树给定实例的所有对比解释可以在多项式时间内导出、最小化和计数。
Aug, 2021
该论文研究了一种新的 Reinforcement Learning (RL) 框架,证明了只需要解决一个完全可观测的问题就能学习到一个优化可解释性 - 性能平衡的决策树。
Apr, 2023
我们的研究提出了解释决策树的符号化语言 ExplainDT,它基于我们称之为 StratiFOILed 的一阶逻辑构建的精心构造的片段。StratiFOILed 在表达能力和评估复杂度上保持平衡,能够计算许多事后解释,包括局部解释(例如归纳和对比解释)和全局解释(例如特征相关性),同时仍处于布尔 NP 层次结构之上。此外,StratiFOILed 查询可以写成 NP 问题的布尔组合,因此我们可以通过调用一次 SAT 求解器对其进行实际评估。在理论方面,我们的主要贡献是对 StratiFOILed 的表达能力和评估复杂度进行深入分析;在实践方面,我们提供了一种对 StratiFOILed 查询进行编码的优化实现,并对其效率进行了实验研究。
Oct, 2023
为了解释机器学习的需求,在解释性人工智能研究方向上,决策树和增强学习的混合模型成为一个新的研究方向,其中使用了 MAP-Elites 方法来拓展模型,该方法在 OpenAI Gym 库的两个控制问题中表现良好。
Aug, 2022
通过运用博弈论、局部特征交互作用效应和全局模型结构,我们实现了对基于树的机器学习模型的高可解释性,应用于三个医疗机器学习问题,在透露模型全局结构的同时保持其基本特征,识别出美国人口中高强度但低频率的非线性死亡风险因素,突显具有共同危险特征的明显人口亚组,识别出慢性肾脏疾病危险因素之间的非线性交互作用效应,并监测在医院部署的机器学习模型(Identifying factors leading to model's performance decay over time)
May, 2019
AI 模型的可解释性使用户能够建立对这些 AI 的信任。我们展示了通过深度强化学习学习决策树的一个方法,从而通过透明地显示输入的关键特征来实现模型的解释性。
Sep, 2023