本文概述了当前流行的图神经网络(GNN)解释方法,包括新的评估指标和真实世界数据集的实验比较,并提出了未来的解释发展方向。
Mar, 2022
本文综述了现有的图神经网络可解释性技术,提出了分类方法并分别讨论了各类的优缺点、应用场景及评估指标,以协助研究人员和从业者了解现有的可解释性方法,识别不足并促进可解释性机器学习的进一步发展。
Jun, 2023
本文综述了当前图神经网络可解释性方法,并建立了标准化的测试集,为以后的方法发展提供了经验基础。
Dec, 2020
本文全面梳理了针对可解释的图神经网络的技术,并基于这些技术对它们进行了分类,给出了衡量其性能的常见指标,最后指出了未来的研究方向。
Jul, 2022
IGNNet 是一个解释性图神经网络,用于处理表格数据,通过表征学习的方式捕获特征交互,大规模的实证研究证明 IGNNet 与 XGBoost、Random Forests 和 TabNet 等最先进的机器学习算法在处理表格数据时表现相当,同时 IGNNet 的解释与特征的 Shapley 值一致而无需额外的计算开销。
Aug, 2023
图神经网络为各领域的强大基于图的机器学习模型,但复杂的数据表示妨碍了对其预测解释的可理解性,从而减少了对其的信任和合作机会。该研究旨在为非技术领域专家提供可理解的图神经网络解释,并提出了一套以人为中心设计的解释要求,并通过两个示例原型来演示了其中一些建议的要求。
May, 2024
该研究论文探讨了关于图神经网络(GNNs)在决策过程中透明度不足的问题,并针对生成 GNNs 解释的方法和数据的评估,研究了三个主要领域的普遍问题:(1)合成数据生成过程,(2)评估指标,以及(3)解释的最终呈现。此外,本文进行了一项实证研究,探讨了这些问题的意外后果,并提出了缓解这些问题的建议。
Nov, 2021
该研究提出了 GNNExplainer 方法,能够为任何基于 GNN 的模型和任何基于图的机器学习任务提供可解释性的预测解释,该方法能够识别关键的子图结构和节点特征,并能够生成一致而简洁的解释。
Mar, 2019
本文研究自解释图神经网络的新问题,提出了新的框架以实现可解释的节点分类,通过可解释的相似性模块以找到每个未标记节点的 $K$ 近邻标记节点,并在真实世界和合成数据集上进行了广泛的实验验证。
Aug, 2021
结合图生成的角度,本文综述了用于图神经网络的解释方法,并就生成解释方法提出了统一的优化目标,包括归因和信息约束两个子目标。通过揭示现有方法的共享特性和差异,为未来的方法改进奠定了基础。实证结果对不同的解释方法在解释性能、效率和泛化能力方面的优势和局限性进行了验证。
Nov, 2023