一个自说明的神经架构用于可推广的概念学习
最近的研究关注点已经从简单地提高深度神经网络(DNNs)在各种任务中的性能转向了更具人可解释性的 DNNs。人工智能解释性领域已经观察到了包括基于显著性和基于概念的技术。概念是人类可理解的数据单元,是人类思考的基础。本文系统地回顾和分类了 DNNs 中各种概念表示及其发现算法,特别是在视觉领域。同时也提供了关于基于概念的模型改进文献的详细信息,这是第一个调查基于概念的模型改进方法的研究。
Mar, 2024
本文提出一种将解释生成模块附加在基础网络之上、共同训练整个模块的自我解释深度学习模型,适用于无监督概念学习,能够生成有关概念的有意义的解释,并且在概念监督方面有一定的可塑性,具有更好的性能表现。通过在多个数据集上的实验,证明该模型比最近提出的基于概念解释的模型表现更好。
Aug, 2021
该论文提出了一种带有附加概念层的 CNN 架构的引导学习方法,用于学习视觉特征和单词短语之间的关联,并通过优化预测准确性和特征表示的语义来学习与人类感知一致的概念,实验结果表明,所提出的模型可以在不牺牲准确性的情况下学习一致于人类感知的概念,并可将这些学习到的概念转移到具有相似概念的新对象类别中。
Jan, 2021
AI 模型的可解释性通常会因降低准确性而受到质疑。我们开发了一种训练策略,不仅提高了目标分类方案的解释性,同时并未降低准确性,实现方式是对决策网络作出决策的可视证据进行区域定位,其表示方法为表征哪些像素对网络决策的贡献最大的显著性图。我们的训练策略通过使模型集中于直接对应于地面目标的图像区域的反馈,在自动和人工指标的量化中量化可解释性,并提出了可解释性作为弥合不同域之间视觉 - 语义差距的手段。我们证明,这种方法不仅提高到新领域的泛化性能,而且不会影响在原始领域上的性能。
Mar, 2020
综述了最近的方法来解释神经网络中的概念,强调了将学习和推理结合起来的重要性,并探讨了将概念知识插入神经网络架构的可能性,为实现基于可解释概念的神经符号人工智能迈出重要一步。
Oct, 2023
该论文提出了一种基于熵的标准及一种新的端到端可微分的方法,用于从概念神经网络中提取逻辑解释,该方法使用一阶逻辑的形式化定义,并考虑了四个案例研究来证明这种熵基准能够从临床数据到计算机视觉中,在安全关键领域中提取简洁的逻辑解释。
Jun, 2021
SelfExplain 是一种新型的自解释模型,通过基于短语的概念解释文本分类器的预测,在不降低性能的同时增加可解释性,实验结果表明 SelfExplain 的解释能力足以促进模型的置信度。
Mar, 2021
通过使用概念检测和概念反向传播方法,我们提出了一种神经网络模型的可视化方法,可以直接在模型输入空间中显示模型所依赖的信息,进而分析训练模型所使用的知识。
Jul, 2023
该论文研究了如何利用深度学习神经网络中学习到的内在特征,利用概念分析方法和归纳逻辑编程理论,构建基于符号的模型,实现黑盒机器学习的可解释性,体现其透明度和可靠性的要求。
May, 2021