Aug, 2023
评估图神经网络的链接预测解释
Evaluating Link Prediction Explanations for Graph Neural Networks
Claudio Borile, Alan Perotti, André Panisson
TL;DR本文提出了衡量链接预测解释质量的定量指标,通过使用这些指标对图神经网络的最先进可解释性方法进行评估,讨论了底层假设和特定于链接预测任务的技术细节对解释质量的影响。
Abstract
graph machine learning (GML) has numerous applications, such as node/graph
classification and link prediction, in real-world domains. Providing
human-understandable →
发现论文,激发创造
自解释图神经网络用于链路预测
本文提出一种自我可解释的 GNN 框架,可以同时给出精确的预测和解释,通过找到一个节点的各种 $k$ 个重要邻居,为该节点到其他节点的链接学习对特定的表示,从而得出解释。
May, 2023
LinkLogic: 透明的知识图谱预测的新方法和基准测试
该研究提出了一种名为 LinkLogic 的简单连接预测解释方法,并构建了第一个基于家族结构的连接预测解释基准,以定量和定性评估生成的解释的忠实度、选择性和相关性。
Jun, 2024
GraphFramEx:面向图神经网络可解释性方法的系统评估
本文提出了第一个系统性的图神经网络的可解释性评估框架,比较了该领域中最具代表性的技术,涉及节点分类任务和欺诈检测应用案例。
Jun, 2022
评估图神经网络的邻居解释性
图神经网络(GNNs)中的可解释性是一个新兴领域,在本文中我们讨论了确定每个邻居对于 GNN 在对节点进行分类时的重要性以及如何度量该特定任务性能的问题。为了做到这一点,我们重新构造了各种已知的可解释性方法来获取邻居的重要性,并提出了四个新的度量指标。我们的结果显示,在 GNN 领域中,基于梯度的技术提供的解释几乎没有区别。此外,当使用没有自环的 GNN 时,许多可解释性技术未能识别到重要的邻居。
Nov, 2023
解密图神经网络解释
该研究论文探讨了关于图神经网络(GNNs)在决策过程中透明度不足的问题,并针对生成 GNNs 解释的方法和数据的评估,研究了三个主要领域的普遍问题:(1)合成数据生成过程,(2)评估指标,以及(3)解释的最终呈现。此外,本文进行了一项实证研究,探讨了这些问题的意外后果,并提出了缓解这些问题的建议。
Nov, 2021