该论文提出了解释机器学习模型预测的方法,同时讨论了相关性和必要性问题,证明了多个机器学习分类器的成员和困难性,并针对不同分类器提出了具体算法。实验结果表明所提算法的可扩展性较好。
Oct, 2022
介绍了一种新的方法来发现由训练后的神经分类器认为具有重要意义的特征,以及这些特征如何影响分类器的输出,从而获得其决策的解释。该方法基于可靠的数学方法,提供了分类器决策前提的可靠估计,重申特征相关性的重要性。
Apr, 2022
我们研究了线性支持向量机(SVM)中的嵌入式特征选择问题,其中采用了基数约束,从而形成了一个完全可解释的选择模型。我们提出了两种混合整数模型,并针对其提出了新的 SDP 松弛策略。通过利用松弛策略的稀疏性模式,我们将问题进行分解,并在一个较小的锥体中获得了等效的松弛策略,使锥形方法具有可伸缩性。为了最大程度地利用分解的松弛策略,我们提出了使用其最优解信息的启发式方法。此外,通过解决一系列混合整数分解的 SDP 问题,我们提出了一种精确的过程。我们报告了在经典基准数据集上的数值实验结果,展示了我们方法的效率和效果。
Apr, 2024
本文证明了求出随机森林的一个 PI 解释是 D^P 完全的,并提出了一种命题编码方法,以使用 SAT 求解器找到 PI 解释。实验结果表明,该 SAT 方法的效果显著优于现有的启发式方法。
May, 2021
探索实用于广泛使用的决策树、朴素贝叶斯分类器和命题语言的几个家族更好地计算超过给定阈值的目标类的相关集,证实了这些类别的相对简洁的相关特征集可以很容易地获得。
Dec, 2022
本文将神经网络决策解释为速率失真框架下的显式优化问题,并探讨了寻找小的相关特征集的计算复杂性,发展了一种基于密度过滤的启发式解决策略,并在两个图像分类数据集上进行了数字实验,特别是在神经网络决策的稀疏解释方面,优于现有方法。
May, 2019
本研究提出了概率充分解释的理念,即通过 “足够简单” 的特征子集来 “足以” 解释分类行为,并结合可扩展的概率推理算法设计出可行的实现方案。实验证明,本算法找到的充分解释更有效,且优于基准模型 Anchors 和逻辑解释。
本文研究布尔决策树在导出、最小化和计数足够原因和对比解释方面的计算能力,证明了给定决策树的实例的最小大小的所有足够原因集合可以指数级大于输入大小,因此生成完整的足够原因集合可能是不可行的,而生成一个足够原因集无法证明是充分的,介绍了相关特征和必要特征的概念以及解释重要性的概念,并展示了如何通过一个模型计数操作获取特征重要性和足够原因的数量,最后表明,与足够的理由不同,决策树给定实例的所有对比解释可以在多项式时间内导出、最小化和计数。
Aug, 2021
本篇论文研究用于决策树的最小的 delta 相关集的计算方法,提出两种用于计算决策树最小的 delta 相关集的逻辑编码并设计一个多项式时间复杂度的算法,并且实验结果表明这些计算方法是实用的。
May, 2022
论文提出了关于大规模自然问题中精确概率推断效率的新极限,尤其是给出了关于知识编译到 SDD 和 DNNF 形式的新下限,并利用 SDD 大小与最佳划分通信复杂度的关系证明了一类大型问题的 SDD 大小的指数下限。
Jun, 2015