关于图剪枝中 Fidelity^-$ 的可行性研究
通过引入一种信息理论的解释性定义,研究了图神经网络(GNN)的可解释性挑战,发现现有的忠实度量衡不符合这一定义,提出了一种稳健的忠实度量方法,通过广泛的实证分析验证了其与标准度量方法的一致性。
Oct, 2023
当我们对图神经网络的预测进行解释时,准确可信的解释是至关重要的。我们发现现有的指标在可信度方面并不可替代,但它们可能对解释的重要属性具有系统性不敏感性,针对这些问题提出了解决方案。对于一类特定的图神经网络结构,追求完全准确可信的解释是没有意义的。与之不同的是,对于自解释和领域不变的模块化图神经网络结构,追求可信度并不会损害信息量,并且与非分布式泛化能力也有意想不到的联系。
Jun, 2024
融合语言模型和知识图谱已经变成通识问题回答研究中的常见做法,但在这些模型中实现忠实的思维链解释仍然是一个开放问题。本研究的两个主要贡献是:(1) 提出并验证了两个定量指标 - 图一致性和图忠实度 - 用于衡量基于知识图谱的解释的忠实性。(2) 引入了一种新颖的训练方法 Consistent GNN (CGNN),通过增加一项一致性正则化项来提高解释的忠实性。分析结果表明,知识图谱的预测往往与原始模型的预测偏离。所提出的 CGNN 方法提高了一致性和忠实度,展示了它产生更忠实解释的潜力。我们的工作强调明确评估的重要性,并为开发基于图的忠实解释结构提供了前进的方向。
Oct, 2023
使用透明模型决策树作为基准,研究提出了一种新的测度指标验证 XAI 方法的准确性,结果显示了现有的测度指标在真实场景中不可靠,并建议开发新的指标以解决这些问题。
Jan, 2024
采用 GInX-Eval 评估程序,本研究揭示了解释性方法的限制,并提供了新的见解;结果表明,包括基于梯度的方法在内的许多流行方法产生的解释并不优于将边界随机选择为重要子图,这对当前领域的研究成果提出了质疑。
Sep, 2023
解释性人工智能(XAI)领域旨在解释黑盒机器学习模型的工作方式,而选择合适的方法以及衡量本地解释的忠实度的当前指标缺乏一致性,使得使用者在选择最忠实的解释时感到困惑。
Nov, 2023
本文提出了第一个系统性的图神经网络的可解释性评估框架,比较了该领域中最具代表性的技术,涉及节点分类任务和欺诈检测应用案例。
Jun, 2022
提议基于掩码方法的一种内在的可靠度可衡量模型,该模型能够解决现有方法受限、计算昂贵且基于代理模型的问题,通过在设计上使掩码令牌成为数据分布内的方式,从而能够更有效地解释和说明 NLP 模型。
Oct, 2023
本文研究了图神经网络(GNNs)的可信解释,并提供一种全新的通用方法来形式化描述 GNNs 的可信解释,包括特征归因和子图解释。作者提出的 KEC 方法从图的结构和其 k 次幂得到信息,可以最大程度地提高生成解释的准确性以及说明原始 GNN 的预测结果,同时弥补了子图解释和特征归因方法的缺陷。经过作者使用多种合成和真实数据集的分类和异常检测任务的实验证明,该方法是有效的。
May, 2022