可解释性大脑网络分类的反事实图
在图分类的背景下,本文提出了一种基于密度的反事实搜索框架来生成图分类器的实例级反事实解释,该框架可以用不同的密集子结构概念具体化,通过在 7 个脑网络数据集上进行的评估结果证实了采用密度等语义相关变化单位是定义多功能和可解释的反事实解释方法所必需的。
Jul, 2023
本综述分四个主要方向,对图形反事实学习的现有方法进行分类和全面的审查。我们提出有前途的未来研究方向,并为未来研究编制了一份资源清单。我们还提供了一份开放源代码实现、公共数据集和常用评估度量标准的列表。本文的目的是为构建图形反事实学习类别和当前资源的统一理解提供 “一站式” 服务,并将维护论文和资源的知识库,并将不断更新此资源。
Apr, 2023
本研究提出了 GCFExplainer 算法来解释图神经网络的全局可解释性,通过全局反事实推理寻找一组代表性的反事实图形,实验结果表明与现有局部反事实解释器相比,GCFExplainer 算法能够提供更重要的高层次 Model 行为见解,并以 46.9% 的弥补覆盖率和 9.5% 的弥补成本降低取得更好的结果。
Oct, 2022
本研究提出了一种基于因果理论的框架,即 CAF,用于解决图学习中的公平性问题,通过选择训练数据中的反事实因素来学习公平的节点表示,以避免非现实反事实因素,并在合成和真实数据集上进行了广泛的实验验证其有效性。
Jul, 2023
该研究提出了一种黑盒对抗解释器来解释医学应用中的图像分类模型,并通过对诊断放射学居民进行实验,发现反事实解释是唯一能显着提高用户对分类器决策理解的解释方法。
Jan, 2021
在不需要重新训练或调整的情况下,使用预训练的生成模型,介绍了生成因果关系和可解释的反事实解释方法,以提供对黑匣子算法的透明性,并获得对面部属性分类器的对比和因果支持和必要分数,从而展示不同属性如何影响分类器输出。
Jun, 2022
基于图神经网络的漏洞检测面临可解释性的挑战,因此提出了 CFExplorer,一种针对 GNN 漏洞检测的新颖的反事实解释器,通过最小程度的扰动来回答所谓的 “如果” 问题,从而确定检测漏洞的根本原因,并为开发者提供有价值的修复漏洞的见解。
Apr, 2024
本文提出了一种新的可解释 AI 方法 CF^2,结合因果推断理论的概念,通过优化问题,生成了一种两个因果视角的模型无关框架,用于产生 GNN 解释,并提供了一组基于对照和实际推理的度量方法,用于定量评估生成解释的必要性和充分性,实验证明在真实世界的数据集上,无论是否提供基本真理解释,CF^2 的生成解释都比以前的最先进方法更好。
Feb, 2022