少即是多:发现简明网络解释
本文提出了一种基于 Distribution Compliant Explanation(DCE)的 Contrastive GNN Explanation(CoGE)技术,该技术适用于 Graph Neural Networks,并且可以提供更精确的模型解释。
Oct, 2020
提出可解释的 Deep Concept Reasoner(DCR)模型,通过对概念嵌入的语义逻辑规则构建实现任务预测,从而在解释过程中提高了模型的可靠性和人类可信度。
Apr, 2023
本文研究深度神经网络的基于概念的可解释性,提出了一种概念完备性度量和一种概念发现方法来寻找既能够解释模型预测,又易于理解的完备概念集,并提出 ConceptSHAP 方法来为每个概念定义重要性得分,在合成和真实数据集上验证了方法的有效性。
Oct, 2019
提出使用 CEN(contextual explanation networks)架构进行预测,生成中间简化的概率模型作为解释,为每个预测生成有效的、实例特定的解释,并可用于决策支持。CEN 架构不仅和现有的最先进方法相竞争,且在决策支持方面提供了有价值的额外细节。
May, 2017
本论文提出 CME 框架,用于通过基于概念的提取模型分析 DNN 模型,通过 dSprites 和 Caltech UCSD Birds 的两个案例研究表明,CME 可用于分析 DNN 模型学习的概念信息,如何使用这些概念信息来预测输出标签,识别关键的概念信息,进一步提高 DNN 的预测性能,准确率可提高 14%以上,仅使用可用概念的 30%。
Oct, 2020
本文提出了一种名为 EiX-GNN 的新方法,可以编码解释图神经网络的社会依赖关系,并介绍了解释者概念吸收度的概念来适应解释需要,实现了针对真实数据的定性研究和比较,并在公平性和简洁性方面取得了良好的结果。
Jun, 2022
该论文提出了一种基于熵的标准及一种新的端到端可微分的方法,用于从概念神经网络中提取逻辑解释,该方法使用一阶逻辑的形式化定义,并考虑了四个案例研究来证明这种熵基准能够从临床数据到计算机视觉中,在安全关键领域中提取简洁的逻辑解释。
Jun, 2021
本文通过基于概念提取的解释器训练决策树,以增加 CNN 模型的可解释性并提高解释器的保真度和性能。研究表明,Tree-ICE 在可解释性方面胜过基准,并生成更易读的模式解释。
Nov, 2022
该论文研究了如何利用深度学习神经网络中学习到的内在特征,利用概念分析方法和归纳逻辑编程理论,构建基于符号的模型,实现黑盒机器学习的可解释性,体现其透明度和可靠性的要求。
May, 2021