关于必要和充分解释的计算
本文研究布尔决策树在导出、最小化和计数足够原因和对比解释方面的计算能力,证明了给定决策树的实例的最小大小的所有足够原因集合可以指数级大于输入大小,因此生成完整的足够原因集合可能是不可行的,而生成一个足够原因集无法证明是充分的,介绍了相关特征和必要特征的概念以及解释重要性的概念,并展示了如何通过一个模型计数操作获取特征重要性和足够原因的数量,最后表明,与足够的理由不同,决策树给定实例的所有对比解释可以在多项式时间内导出、最小化和计数。
Aug, 2021
研究了分类器的决策规律,提出了两种解释的方法:有支撑和对比解释。当处理非二分特征时,这些解释会受到显著影响,在此基础上,提出了一种新的完备原因的概念及其量化运算符。
Apr, 2023
本文探讨机器学习分类器编译成布尔电路同样具有输入 - 输出行为,定义二进制分类器决策背后的决策原因,并阐述其在应用层面的影响。此外,还提出了 “充分的”,“必要的” 和 “完整的” 决策原因的概念,以及对分类器和决策偏差的定义。根据这些概念,我们提出了高效的算法,并使用案例研究来论证它们的实用性。
Feb, 2020
本研究提出了概率充分解释的理念,即通过 “足够简单” 的特征子集来 “足以” 解释分类行为,并结合可扩展的概率推理算法设计出可行的实现方案。实验证明,本算法找到的充分解释更有效,且优于基准模型 Anchors 和逻辑解释。
May, 2021
本文研究深度神经网络的基于概念的可解释性,提出了一种概念完备性度量和一种概念发现方法来寻找既能够解释模型预测,又易于理解的完备概念集,并提出 ConceptSHAP 方法来为每个概念定义重要性得分,在合成和真实数据集上验证了方法的有效性。
Oct, 2019
该论文提出了解释机器学习模型预测的方法,同时讨论了相关性和必要性问题,证明了多个机器学习分类器的成员和困难性,并针对不同分类器提出了具体算法。实验结果表明所提算法的可扩展性较好。
Oct, 2022
在解释人工智能(XAI)这一快速发展的研究领域中,我们建立起必要性和充分性在 XAI 中的中心作用,通过逻辑、概率和因果关系的工作,将看似分散的方法统一到一个单一的形式框架中,并提供了一个可靠、完整的算法来计算与给定上下文相关的解释因素,展示了其灵活性和在各种任务上与最先进的替代方案的可比性。
Mar, 2021