基于知识的场景分类神经元解释
本文通过研究图神经网络(GNNs)中个别神经元的行为,提出新的度量方法和全局解释方法,证明 GNN 神经元充当概念探测器,在逻辑组合的节点度和邻域属性的概念中具有良好的对齐性,将 GNNs 转换成易于理解的概念级别,提高模型的解释性和透明性,并通过实验证明了其优越性。
Aug, 2022
该研究审查了通过提出分类法来将人类可理解的概念与神经网络中的内部表示相对应的研究,并发现了与模型可解释性目标有关的文学研究中的歧义,即是理解机器学习模型还是在部署领域有用的可行解释。
Dec, 2022
本文研究了场景图分类中的多任务学习方法,将分类实现为一个注意力层,从而促进先前知识的传播并增强归纳偏差;引入外部知识可以进一步提高分类精度。
Nov, 2020
综述了最近的方法来解释神经网络中的概念,强调了将学习和推理结合起来的重要性,并探讨了将概念知识插入神经网络架构的可能性,为实现基于可解释概念的神经符号人工智能迈出重要一步。
Oct, 2023
该论文提出了一种带有附加概念层的 CNN 架构的引导学习方法,用于学习视觉特征和单词短语之间的关联,并通过优化预测准确性和特征表示的语义来学习与人类感知一致的概念,实验结果表明,所提出的模型可以在不牺牲准确性的情况下学习一致于人类感知的概念,并可将这些学习到的概念转移到具有相似概念的新对象类别中。
Jan, 2021
该研究提出了一种基于知识图谱的语义推理框架,以解决常识性问题,并通过引入 KagNet 模型和 ConceptNet 外部资源,取得了在常识 QA 数据集上的最佳表现。
Sep, 2019
利用自我解释的架构跨领域进行概念学习,提出新的概念显著网络、对比学习和基于原型的概念基准规范化方法来解决概念一致性和泛化能力的问题,并在四个实际数据集上展示了方法的有效性。
May, 2024
基于人类知识的深度神经网络训练方法通过使用人类认知模型构建深度神经网络训练模型,采用现有人类知识信息构建了多级分层深度学习算法,并有效解释了神经网络的隐藏信息。
Jan, 2024