通过生成对称近似的对抗性样本,我们开发了一种方法来评估 GNNExplainer 生成的解释中的不确定性,通过学习一个因子图模型来量化解释的不确定性,我们的结果表明我们的方法可以可靠地估计解释中指定关系的不确定性。
Jan, 2024
本研究提出了一种框架,可以学习原型图,从而同时提供准确的预测和基于原型的解释,用于自我解释的图神经网络,实验结果表明其在真实和人工数据集上都具有良好的预测和解释质量。
Oct, 2022
SCALE 是一个快速通用的 GNN 解释框架,通过训练多个特殊学习器来解释预测,同时提供结构化的总体和实例级特征贡献。
本研究提出 PGExplainer 方法解决了图神经网络在全局理解及归纳场景下解释预测的问题。PGExplainer 使用神经网络参数化解释生成过程,支持对多个实例进行自然的解释,并提高了解释的泛化能力。实验结果在合成和实际数据集上表现出高度竞争性。
Nov, 2020
本文概述了当前流行的图神经网络(GNN)解释方法,包括新的评估指标和真实世界数据集的实验比较,并提出了未来的解释发展方向。
Mar, 2022
本文提出了一种名为 EiX-GNN 的新方法,可以编码解释图神经网络的社会依赖关系,并介绍了解释者概念吸收度的概念来适应解释需要,实现了针对真实数据的定性研究和比较,并在公平性和简洁性方面取得了良好的结果。
Jun, 2022
本文提出了一种基于信息瓶颈理论的目标函数和混合框架来解释解释图回归模型(XAIG-R)的方法,并引入了对比学习策略来解决连续有序标签的问题,实验证明该方法在解释图神经网络模型中的回归任务方面具有有效性。
Jul, 2023
该研究提出了 GNNExplainer 方法,能够为任何基于 GNN 的模型和任何基于图的机器学习任务提供可解释性的预测解释,该方法能够识别关键的子图结构和节点特征,并能够生成一致而简洁的解释。
Mar, 2019
使用 DyExplainer 方法解释动态图神经网络,通过稀疏注意机制探索结构关系和时间依赖性,并结合对比学习技术提供先验引导正则化,以实现对模型预测的解释性和预测准确性的显著提升。
Oct, 2023
本文研究自解释图神经网络的新问题,提出了新的框架以实现可解释的节点分类,通过可解释的相似性模块以找到每个未标记节点的 $K$ 近邻标记节点,并在真实世界和合成数据集上进行了广泛的实验验证。
Aug, 2021