关键词interpretable neural networks
搜索结果 - 4
- 眼见为实:面向机械解释性的脑启发式模块化训练
本文介绍了一种类脑的模块化训练方法,称为 BIMT,可以使神经网络更具有模块化和可解释性,能够应用于多个任务,如符号公式,决策边界和算法数据集的组合结构,可以通过裸眼直接看到模块,以补充当前机械可解释性策略。
- ICLR无标记概念瓶颈模型
提出了一种新的框架 Label-free CBM,能够将任何神经网络转换成可解释的 CBM,而无需标记的概念数据,且准确性高,并成功地将其扩展到 ImageNet 数据集上,整个创建过程只需要几个小时,未来能在实际的实际场景中大规模应用。
- CVPR参考关系
本文提出了一种基于指代关系的迭代模型,模拟了实体之间的关系和谓词的概念移动,出色地完成了相同类别实体的消歧任务,在 CLEVR、VRD 和 Visual Genome 三个数据集上的表现都超越了之前的方法,还产生了具有可解释性的谓词移动,甚 - NIPSInterpNET: 可解释深度学习的神经内视
本文提出了一种新的解释性神经网络框架,可以生成自然语言的分类解释,试图弥合人类推理和深度神经网络推理相差的鸿沟。该模型在 CUB 鸟类分类和解释数据集上获得了 METEOR 分数 37.9,为目前最高水平。