使用非二元特征的分类器的新解释类别
本研究提出了概率充分解释的理念,即通过 “足够简单” 的特征子集来 “足以” 解释分类行为,并结合可扩展的概率推理算法设计出可行的实现方案。实验证明,本算法找到的充分解释更有效,且优于基准模型 Anchors 和逻辑解释。
May, 2021
本文探讨机器学习分类器编译成布尔电路同样具有输入 - 输出行为,定义二进制分类器决策背后的决策原因,并阐述其在应用层面的影响。此外,还提出了 “充分的”,“必要的” 和 “完整的” 决策原因的概念,以及对分类器和决策偏差的定义。根据这些概念,我们提出了高效的算法,并使用案例研究来论证它们的实用性。
Feb, 2020
本文研究布尔决策树在导出、最小化和计数足够原因和对比解释方面的计算能力,证明了给定决策树的实例的最小大小的所有足够原因集合可以指数级大于输入大小,因此生成完整的足够原因集合可能是不可行的,而生成一个足够原因集无法证明是充分的,介绍了相关特征和必要特征的概念以及解释重要性的概念,并展示了如何通过一个模型计数操作获取特征重要性和足够原因的数量,最后表明,与足够的理由不同,决策树给定实例的所有对比解释可以在多项式时间内导出、最小化和计数。
Aug, 2021
该论文提出了解释机器学习模型预测的方法,同时讨论了相关性和必要性问题,证明了多个机器学习分类器的成员和困难性,并针对不同分类器提出了具体算法。实验结果表明所提算法的可扩展性较好。
Oct, 2022
研究聚焦于解释图像分类器,以 Mothilal 等人的工作 [2021 年](MMTS)为出发点。我们观察到,尽管 MMTS 声称使用了 Halpern [2016 年] 提出的解释定义,但实际上并非如此。我们展示了 MMTS 将必然性条款替换为一个要求,这意味着强制性的条款。Halpern 的定义还允许代理人限制考虑的选项集。正如我们所展示的那样,尽管这些差异看似微小,但它们对解释有着重要的影响。我们还展示了,基本上没有改变,Halpern 的定义可以处理其他方法难以解决的两个问题:对缺席的解释(例如,肿瘤图像分类器输出 “无肿瘤”)和罕见事件的解释(例如,肿瘤)。
Jan, 2024
本文探讨了现有的 feature-highlighting explanations 模型中存在的主要问题,包括推荐的特征变化是否直接映射到现实世界、特征是否只与当前的决策相关以及隐藏模型的需求与有用解释之间的张力等。需要更多的理解和研究才能有效地实施这些技术。
Dec, 2019