基于图反事实方法的图神经网络公平性改进
本文提出了一种新的公平性概念 —— 图形对照公平性,并基于对照数据增强提出了一种学习节点表示的框架,以减少模型在涉及敏感属性的图形数据中的偏见,该框架在合成和真实世界的图形上的实验表明,优于现有的基线图形对照公平性,并且在预测性能方面有可比性。
Jan, 2022
我们提出了一种用于训练关注公平性的图神经网络的新模型,该模型通过整合监督对比损失和环境损失来提高准确性和公平性,实验证明该模型在三个真实数据集上优于其他现有的基于图的学习方法以及之前的模型。
Apr, 2024
本综述分四个主要方向,对图形反事实学习的现有方法进行分类和全面的审查。我们提出有前途的未来研究方向,并为未来研究编制了一份资源清单。我们还提供了一份开放源代码实现、公共数据集和常用评估度量标准的列表。本文的目的是为构建图形反事实学习类别和当前资源的统一理解提供 “一站式” 服务,并将维护论文和资源的知识库,并将不断更新此资源。
Apr, 2023
通过开发一种名为生成对抗平衡网络(GCFN)的新颖深度神经网络,本文研究了在反事实公平性下进行预测的方法,并通过一种新颖的反事实调节器正则化方式,借助量身定制的生成对抗网络直接学习敏感属性后代的反事实分布,较好地保证了反事实公平性的概念。该方法解决了现有基于推断潜在变量的基线方法存在的问题,并在各种实验证明,其性能达到了最先进水平。在自由刑滞后预测的现实案例研究中,我们进一步证明了我们的方法在实践中能够作出有意义的预测。
Oct, 2023
通过对图神经网络的公平性技术进行分类和研究,本文介绍了改善图神经网络公平性的先前工作,包括预处理步骤、训练过程和后处理阶段,同时提出了公平性评价指标的直观分类,并对用于基准测试的图数据集进行了总结,还针对未解决的关键问题和挑战进行了讨论。
Jul, 2023
本研究提出了 GCFExplainer 算法来解释图神经网络的全局可解释性,通过全局反事实推理寻找一组代表性的反事实图形,实验结果表明与现有局部反事实解释器相比,GCFExplainer 算法能够提供更重要的高层次 Model 行为见解,并以 46.9% 的弥补覆盖率和 9.5% 的弥补成本降低取得更好的结果。
Oct, 2022
本文提出了一种新的可解释 AI 方法 CF^2,结合因果推断理论的概念,通过优化问题,生成了一种两个因果视角的模型无关框架,用于产生 GNN 解释,并提供了一组基于对照和实际推理的度量方法,用于定量评估生成解释的必要性和充分性,实验证明在真实世界的数据集上,无论是否提供基本真理解释,CF^2 的生成解释都比以前的最先进方法更好。
Feb, 2022
本研究介绍了一种称为 INDUCE 的归纳算法,旨在为节点推导科学中的 GNN 提供因果关系解释,并通过引入边缘增强来改善 counterfactual 结果,此外,归纳建模方法使 INDUCE 直接预测反事实扰动,无需特定示例的训练,从而在计算速度上实现了显著领先的方法和 GNN 的可扩展反事实分析。
Jun, 2023
基于图神经网络的漏洞检测面临可解释性的挑战,因此提出了 CFExplorer,一种针对 GNN 漏洞检测的新颖的反事实解释器,通过最小程度的扰动来回答所谓的 “如果” 问题,从而确定检测漏洞的根本原因,并为开发者提供有价值的修复漏洞的见解。
Apr, 2024