层次语义树概念白化用于可解释的图像分类
本文提出了一种新颖的技术,通过利用人类描述中蕴含的丰富语义信息来提高深度神经网络的可解释性,特别是在视频字幕任务中,通过一个可解释损失将人类描述中的一组语义相关主题集成到模型中,并提出了一种预测差异最大化算法来解释每个神经元的学习特征。实验结果表明这种方法在视频字幕和视频动作识别方面非常有效。
Mar, 2017
利用深度学习算法设计了一种多层次概念发现框架,允许人类理解的概念在决策过程中高度解释性,通过图像 - 文本模型和基于数据驱动和稀疏的贝叶斯算法进行多层次概念选择,实验结果表明这种构建不仅胜过最近的 CBM 方法,而且为解释性提供了一个有原则的框架。
Oct, 2023
该论文提出了一种从 CNN 隐藏层激活中推断标记的概念数据并通过浅层决策树解释这些概念的方法,这可以提供关于 CNN 模型认为重要的概念以及这些概念如何相互作用的信息,实验表明提取的决策树在树深度较低时能够准确地代表原始 CNN 的分类,从而有助于人们理解有区分力的概念。
Jun, 2019
探究神经网络中概念随层数变化的编码方式,引入概念白化机制(CW)对网络的中间层进行调整以更好地理解计算过程。实验证明,CW 可以提供更清晰的概念层次,是批量归一化层的替代方案。
Feb, 2020
本文提出了一种新的 Hierarchical INTerpretable 神经文本分类器 Hint,它可以自动生成按标签关联的话题的模型预测解释,实验结果表明 Hint 方法在文本分类方面不仅与现有的最先进的文本分类器相当,而且生成的解释比其他可解释的神经文本分类器更符合模型预测,并且更易于被人类理解。
Feb, 2022
本文介绍了一种名为 Agglomerator 的框架,它可以通过视觉线索提供部分 - 整体层次结构的表示,并组织与类别之间的概念语义层次结构相匹配的输入分布,从而提高神经网络的可解释性。作者在 SmallNORB、MNIST、FashionMNIST、CIFAR-10 和 CIFAR-100 等常见数据集上进行了评估,并提供了比其他最先进方法更易解释的模型。
Mar, 2022
本文通过基于概念提取的解释器训练决策树,以增加 CNN 模型的可解释性并提高解释器的保真度和性能。研究表明,Tree-ICE 在可解释性方面胜过基准,并生成更易读的模式解释。
Nov, 2022
通过将概念特征映射到预训练生成模型的潜在空间中,我们提出了一种新方法,以生成高质量的可视化结果并提供直观、交互式的解释方式。我们验证了该方法在可解释预测网络准确性、重构保真度以及概念学习的忠实性和一致性方面的有效性。
Jul, 2024
本文提出一种深度监督方法,通过利用中间概念对 CNN 的隐藏层进行监督,将先前的领域结构融入到神经网络训练中,显著提高了推广能力。该方法还可以仅使用合成场景来训练,并在实际图像上取得了 2D/3D 关键点本地化和图像分类的最新性能。
Jan, 2018