图神经网络中的去混淆技术对解释性评估的影响
本研究提出了一种名为 SubgraphX 的算法,采用蒙特卡洛树搜索来探索重要子图并使用 Shapley 值作为子图重要性的度量,从而以明确和直接的方式解释图神经网络 (GNNs) 的预测结果.
Feb, 2021
本文提出了一种名为 StableGNN 的基于因果关系的图神经网络框架,该框架从图数据中提取高级表示,并利用因果推断的区分能力帮助模型消除虚假相关性,具有良好的有效性、灵活性和解释性。
Nov, 2021
本文提出了一种基于 Distribution Compliant Explanation(DCE)的 Contrastive GNN Explanation(CoGE)技术,该技术适用于 Graph Neural Networks,并且可以提供更精确的模型解释。
Oct, 2020
该论文介绍了如何利用有意义的子图来加强图神经网络的表达能力,并提出了一个能够同时预测图分类和辅助解释性稀疏子图的新框架,其所提供的子图能够在保持相近精度的情况下提供说明性的解释。
Apr, 2023
本文提出 DEGREE 方法,通过分解 GNN 信息生成和聚合机制,实现对输入图中特定组件对最终预测的贡献的跟踪,并设计了子图级别解释算法来揭示先前方法忽略的图节点之间的复杂交互,实现了节点分类任务上的有效性。
May, 2023
提出了一种名为 D4Explainer 的新方法,利用生成图分布学习优化目标,为图神经网络提供两种类型的可靠解释:反事实解释和模型级解释。经过在合成和真实数据集上的实证评估,D4Explainer 在解释准确性、忠实度、多样性和稳健性方面取得了最先进的性能。
Oct, 2023
提出了一种能够生成对于噪音稳健且符合人类直觉的图神经网络的可靠反事实解释的新方法,该方法明确地对相似输入图的常见决策逻辑进行建模,并从许多相似输入图的公共决策边界中产生可靠的解释。
Jul, 2021
采用 GInX-Eval 评估程序,本研究揭示了解释性方法的限制,并提供了新的见解;结果表明,包括基于梯度的方法在内的许多流行方法产生的解释并不优于将边界随机选择为重要子图,这对当前领域的研究成果提出了质疑。
Sep, 2023