图神经网络的忠实和一致解释
提出了一种能够生成对于噪音稳健且符合人类直觉的图神经网络的可靠反事实解释的新方法,该方法明确地对相似输入图的常见决策逻辑进行建模,并从许多相似输入图的公共决策边界中产生可靠的解释。
Jul, 2021
本研究旨在提供一种使用结构解释方法对图神经网络中的偏置性进行分析的框架,并提取贡献最大、偏置最小的两组边用于提高预测的公正性。经实验证明该框架在真实世界数据集上的可行性和有效性。
Jun, 2022
本文研究了图神经网络(GNNs)的可信解释,并提供一种全新的通用方法来形式化描述 GNNs 的可信解释,包括特征归因和子图解释。作者提出的 KEC 方法从图的结构和其 k 次幂得到信息,可以最大程度地提高生成解释的准确性以及说明原始 GNN 的预测结果,同时弥补了子图解释和特征归因方法的缺陷。经过作者使用多种合成和真实数据集的分类和异常检测任务的实验证明,该方法是有效的。
May, 2022
本研究介绍了一种称为 INDUCE 的归纳算法,旨在为节点推导科学中的 GNN 提供因果关系解释,并通过引入边缘增强来改善 counterfactual 结果,此外,归纳建模方法使 INDUCE 直接预测反事实扰动,无需特定示例的训练,从而在计算速度上实现了显著领先的方法和 GNN 的可扩展反事实分析。
Jun, 2023
本文提出一种自我可解释的 GNN 框架,可以同时给出精确的预测和解释,通过找到一个节点的各种 $k$ 个重要邻居,为该节点到其他节点的链接学习对特定的表示,从而得出解释。
May, 2023
结合图生成的角度,本文综述了用于图神经网络的解释方法,并就生成解释方法提出了统一的优化目标,包括归因和信息约束两个子目标。通过揭示现有方法的共享特性和差异,为未来的方法改进奠定了基础。实证结果对不同的解释方法在解释性能、效率和泛化能力方面的优势和局限性进行了验证。
Nov, 2023
本文研究自解释图神经网络的新问题,提出了新的框架以实现可解释的节点分类,通过可解释的相似性模块以找到每个未标记节点的 $K$ 近邻标记节点,并在真实世界和合成数据集上进行了广泛的实验验证。
Aug, 2021
图神经网络 (GNN) 的预测通常缺乏可解释性,因为其复杂的计算行为和图的抽象特性,为解决这一问题,出现了许多 GNN 解释方法,它们的目标是解释模型的预测结果,从而在 GNN 模型在决策关键应用中部署时获得信任,但是,大多数 GNN 解释方法都是事后提供解释,以一小部分重要的边缘和 / 或节点的形式,本文表明这些解释不能被信任,因为常见的 GNN 解释方法对对抗扰动非常敏感,这对 GNN 解释方法的可信度和实际效用提出了疑问,我们提出了一种新的攻击方法,称为 GXAttack,这是第一个针对事后 GNN 解释的基于优化的对抗攻击方法,由于我们攻击的毁灭性有效性,我们呼吁对未来的 GNN 解释器进行对抗性评估,以证明它们的鲁棒性。
Jun, 2024
该研究论文探讨了关于图神经网络(GNNs)在决策过程中透明度不足的问题,并针对生成 GNNs 解释的方法和数据的评估,研究了三个主要领域的普遍问题:(1)合成数据生成过程,(2)评估指标,以及(3)解释的最终呈现。此外,本文进行了一项实证研究,探讨了这些问题的意外后果,并提出了缓解这些问题的建议。
Nov, 2021