AAAIDec, 2021

ProtGNN: 自我解释图神经网络

TL;DR本文提出了一种称为 Prototype Graph Neural Network(ProtGNN)的新型网络结构,它将原型学习与图神经网络相结合,从而为 GNN 的解释提供了新的视角。在 ProtGNN 中,解释是从基于案例的推理过程中自然推导出来的,并在分类期间实际使用。通过将输入与潜在空间中学习的几个原型进行比较,ProtGNN 可以获得其预测结果。与此同时,为了更好地进行解释和提高效率,在 ProtGNN + 中增加了一种新颖的条件子图抽样模块,用于指示输入图的哪一部分与 ProtGNN 中的每个原型最相似。在广泛的数据集中评估我们的方法,并进行具体的案例研究。结果表明,ProtGNN 和 ProtGNN + 能够提供内在的可解释性,同时实现与非可解释性对应物的准确性。