研究了分类器的决策规律,提出了两种解释的方法:有支撑和对比解释。当处理非二分特征时,这些解释会受到显著影响,在此基础上,提出了一种新的完备原因的概念及其量化运算符。
Apr, 2023
本文介绍了决策的完整原因的概念和应用,并研究了其计算方法,包括多类决策树和带有名义和数值特征的图形的完整原因的计算、最短必要和充分原因算法的探讨。
Mar, 2022
本文研究布尔决策树在导出、最小化和计数足够原因和对比解释方面的计算能力,证明了给定决策树的实例的最小大小的所有足够原因集合可以指数级大于输入大小,因此生成完整的足够原因集合可能是不可行的,而生成一个足够原因集无法证明是充分的,介绍了相关特征和必要特征的概念以及解释重要性的概念,并展示了如何通过一个模型计数操作获取特征重要性和足够原因的数量,最后表明,与足够的理由不同,决策树给定实例的所有对比解释可以在多项式时间内导出、最小化和计数。
Aug, 2021
本论文讨论了关于可解释 AI 的理论,基于符号逻辑,探讨了三个维度(必要和充分条件、最小充分条件、最小必要条件)的决策理解,以及如何应用于非符号学习器。
May, 2023
本文探讨了机器学习如何工作以及如何制定公正和负责任的算法,重点考虑了在刑事司法系统中执行决策的案例,并对 HART 作为现实世界分类器的技术特征进行了说明和四个规范基准进行了评估。
Nov, 2018
本研究提出了概率充分解释的理念,即通过 “足够简单” 的特征子集来 “足以” 解释分类行为,并结合可扩展的概率推理算法设计出可行的实现方案。实验证明,本算法找到的充分解释更有效,且优于基准模型 Anchors 和逻辑解释。
May, 2021
论文解决了决策树上计算 δ 足够原因的计算复杂度,发现在包含方式和大小方面都不具有多项式时间算法,但在确定性情况下具有易于计算的特点。
Jun, 2022
人们对越来越多的决策由机器完成的需求增加,但黑盒模型的决策推理令人不解,因此需要关注决策推理的清晰度与可解释性,以及如何扩展到反事实思考。
Nov, 2023
该研究引入了一种灵活的机制,以设计公平的分类器,其中利用了一种新颖的、直观的决策边界(不)公平度量,并结合实际的数据表明,该机制在维持准确度的小代价下,允许对公平度进行微调。
Jul, 2015
本文研究了布尔分类器的计算可懂性,证明了在解释查询和验证查询方面,决策树与其他分类器存在明显的可懂性差距。
Apr, 2021