图神经网络中的可解释性:分类调查
本文研究自解释图神经网络的新问题,提出了新的框架以实现可解释的节点分类,通过可解释的相似性模块以找到每个未标记节点的$K$近邻标记节点,并在真实世界和合成数据集上进行了广泛的实验验证。
Aug, 2021
本文提出了第一个系统性的图神经网络的可解释性评估框架,比较了该领域中最具代表性的技术,涉及节点分类任务和欺诈检测应用案例。
Jun, 2022
本文通过研究图神经网络(GNNs)中个别神经元的行为,提出新的度量方法和全局解释方法,证明 GNN 神经元充当概念探测器,在逻辑组合的节点度和邻域属性的概念中具有良好的对齐性,将 GNNs 转换成易于理解的概念级别,提高模型的解释性和透明性,并通过实验证明了其优越性。
Aug, 2022
本文通过实验研究,测试了十种解释器在八种代表性架构训练的六个仔细设计的图形和节点分类数据集上的表现,提供了GNN解释器选择和适用性的关键见解,分离了使它们可用的关键组件并提供了关于如何避免常见解释误区的建议,并强调了未来研究的开放性问题和方向。
Oct, 2022
本文综述了现有的图神经网络可解释性技术,提出了分类方法并分别讨论了各类的优缺点、应用场景及评估指标,以协助研究人员和从业者了解现有的可解释性方法,识别不足并促进可解释性机器学习的进一步发展。
Jun, 2023
通过引入一种信息理论的解释性定义,研究了图神经网络(GNN)的可解释性挑战,发现现有的忠实度量衡不符合这一定义,提出了一种稳健的忠实度量方法,通过广泛的实证分析验证了其与标准度量方法的一致性。
Oct, 2023
结合图生成的角度,本文综述了用于图神经网络的解释方法,并就生成解释方法提出了统一的优化目标,包括归因和信息约束两个子目标。通过揭示现有方法的共享特性和差异,为未来的方法改进奠定了基础。实证结果对不同的解释方法在解释性能、效率和泛化能力方面的优势和局限性进行了验证。
Nov, 2023
图神经网络(GNNs)中的可解释性是一个新兴领域,在本文中我们讨论了确定每个邻居对于GNN在对节点进行分类时的重要性以及如何度量该特定任务性能的问题。为了做到这一点,我们重新构造了各种已知的可解释性方法来获取邻居的重要性,并提出了四个新的度量指标。我们的结果显示,在GNN领域中,基于梯度的技术提供的解释几乎没有区别。此外,当使用没有自环的GNN时,许多可解释性技术未能识别到重要的邻居。
Nov, 2023