该论文提出了一种从 CNN 隐藏层激活中推断标记的概念数据并通过浅层决策树解释这些概念的方法,这可以提供关于 CNN 模型认为重要的概念以及这些概念如何相互作用的信息,实验表明提取的决策树在树深度较低时能够准确地代表原始 CNN 的分类,从而有助于人们理解有区分力的概念。
Jun, 2019
通过提取卷积神经网络的最终层中的特征并使用决策树进行训练,我们提出了一种蒸馏方法来解释深度神经网络的推理,展示了决策树在解释卷积神经网络决策时的表现与最小复杂度的卷积神经网络相当好。
Mar, 2024
本文通过基于概念提取的解释器训练决策树,以增加 CNN 模型的可解释性并提高解释器的保真度和性能。研究表明,Tree-ICE 在可解释性方面胜过基准,并生成更易读的模式解释。
Nov, 2022
本篇论文提出了一种从卷积神经网络中提取和解释知识的方法,并通过可解释的加性模型量化地解释了神经网络预测的理由,解决了可解释性问题和 Typical Bias-Interpreting 问题,并通过实验证明了该方法的有效性。
Dec, 2018
本文提出了一种简单而高效的方法,通过自动区分不同的部分模式从每个卷积滤波器中解开卷积神经网络内隐藏的知识层次结构,并构建了一个解释性图形模型,该模型通过无监督学习的方法进行了预训练,该图表现出不同图像中相同的物体部分,并且通过转移图形中的部分模式到部分定位任务中,其性能显著优于其他方法。
Aug, 2017
本文提出了一种新颖的方法来增强卷积神经网络(CNN)的可辨别性,通过建立一个树状结构来逐步学习精细的特征,以区分一部分类别。我们开发了一种新算法,有效地从大量类别中学习树结构。实验表明,我们的方法可以提高给定基本 CNN 模型的性能,且具有一般性,因此可以潜在地与许多其他深度学习模型结合使用。
Nov, 2015
本文提出了一种方法,将传统的 CNN 转换为可解释的 CNN,以澄清 CNN 高卷积层中的知识表示。在可解释的 CNN 中,高卷积层中的每个滤波器表示某个物体部分,无需任何部件或纹理的注释就可以在学习过程中自动分配。实验表明,可解释的 CNN 中的滤波器比传统 CNN 中的滤波器更具有语义意义。
Oct, 2017
本文提出一种基于无监督学习的方法来解释大量相似图像中深度卷积神经网络的决策逻辑,并将代表性解释问题转化为一种共聚类问题,并基于线性决策边界的样本将其转化为子模代价覆盖问题。我们还提供了可视化和相似性排序方法,广泛的实验证明了本方法的优秀表现。
Aug, 2021
使用层次分割技术构建模型解释框架,提供可信和可解释的卷积神经网络 (CNN) 解释,旨在增强 xAI 的可解释性和理解神经网络的决策过程。
Jun, 2024
本文提出了一种名为 D-CLOSE 的方法,用于解释任何目标检测模型的决策,并利用图像上的多层分割和结合过程来跟踪模型的行为。在 MS-COCO 数据集中使用 YOLOX 模型进行测试,表明我们的方法优于 D-RISE,可以提供更好的质量和更少的噪音解释。
Jun, 2023