图形神经网络解释是脆弱的
图神经网络 (GNN) 的预测通常缺乏可解释性,因为其复杂的计算行为和图的抽象特性,为解决这一问题,出现了许多 GNN 解释方法,它们的目标是解释模型的预测结果,从而在 GNN 模型在决策关键应用中部署时获得信任,但是,大多数 GNN 解释方法都是事后提供解释,以一小部分重要的边缘和 / 或节点的形式,本文表明这些解释不能被信任,因为常见的 GNN 解释方法对对抗扰动非常敏感,这对 GNN 解释方法的可信度和实际效用提出了疑问,我们提出了一种新的攻击方法,称为 GXAttack,这是第一个针对事后 GNN 解释的基于优化的对抗攻击方法,由于我们攻击的毁灭性有效性,我们呼吁对未来的 GNN 解释器进行对抗性评估,以证明它们的鲁棒性。
Jun, 2024
该研究论文探讨了关于图神经网络(GNNs)在决策过程中透明度不足的问题,并针对生成 GNNs 解释的方法和数据的评估,研究了三个主要领域的普遍问题:(1)合成数据生成过程,(2)评估指标,以及(3)解释的最终呈现。此外,本文进行了一项实证研究,探讨了这些问题的意外后果,并提出了缓解这些问题的建议。
Nov, 2021
本文探讨如何通过对图神经网络的敌对训练来提高模型的可解释性,通过一种新的度量标准来评估解释方法对模型学习到的表征的利用效果,并证明对于化学领域的应用,敌对训练可以更好地提取与领域相关的见解。
Jun, 2021
本文综述了现有的图神经网络可解释性技术,提出了分类方法并分别讨论了各类的优缺点、应用场景及评估指标,以协助研究人员和从业者了解现有的可解释性方法,识别不足并促进可解释性机器学习的进一步发展。
Jun, 2023
本文通过实验研究,测试了十种解释器在八种代表性架构训练的六个仔细设计的图形和节点分类数据集上的表现,提供了 GNN 解释器选择和适用性的关键见解,分离了使它们可用的关键组件并提供了关于如何避免常见解释误区的建议,并强调了未来研究的开放性问题和方向。
Oct, 2022
该研究提出了 GNNExplainer 方法,能够为任何基于 GNN 的模型和任何基于图的机器学习任务提供可解释性的预测解释,该方法能够识别关键的子图结构和节点特征,并能够生成一致而简洁的解释。
Mar, 2019
图神经网络 (GNNs) 的脆弱性研究,通过系统性地考虑图数据模式、模型特定因素和对抗样本的传递性,揭示了对抗攻击对 GNN 的影响,从而为提高 GNN 的对抗鲁棒性提供了相关的准则和原则。
Jun, 2024
结合图生成的角度,本文综述了用于图神经网络的解释方法,并就生成解释方法提出了统一的优化目标,包括归因和信息约束两个子目标。通过揭示现有方法的共享特性和差异,为未来的方法改进奠定了基础。实证结果对不同的解释方法在解释性能、效率和泛化能力方面的优势和局限性进行了验证。
Nov, 2023