图嵌入的组合公平约束
本研究提出了对于敏感属性公平的影响最大化方法,采用对抗图嵌入的方式得到平衡分布的嵌入向量,并通过聚类方法获得良好的初始节点集合,实验证明其能显著提高公平性同时保持与最先进的影响最大化方法一致的复杂度。
May, 2020
本研究通过自适应特征遮蔽和边缘删除的公平感知图扩充设计,在图对比学习中解决了公平性问题,提出了不同的图上公平性概念,并提供了理论分析来量化证明所提出的特征遮蔽方法可以降低内部偏见。实验结果表明,所提出的扩充方法可以提高平等机会和统计平等的公平性,并为无节点分类的对照方法提供了可比较的分类准确性。
Jun, 2021
本研究通过理论分析揭示了 Node representation learning 中源自于 nodal features 和 graph structure 的偏见,并提出了针对其固有偏见的公平感知数据增强框架,可广泛用于增强各种基于 GNN 的学习机制的公平性。
Jan, 2022
本文探讨了知识图谱中的社会偏见和文化偏见,特别是在节点流行度与链接预测精度之间的负相关关系以及从知识图嵌入中预测人的性别并提出了过滤对抗网络(FAN)来消除这些敏感属性信息从而使知识图谱达到去偏见的目的。
Jun, 2020
本文提出了 GFairHint 方法,通过辅助链接预测任务学习公平表示,并将表示与原始 GNN 中学习的节点嵌入拼接出 “公平提示”,从而实现在各种 GNN 模型上促进公正性的评估,产生相当的优质结果,而且比之前的最新方法具有更少的计算成本。
May, 2023
通过对图神经网络的公平性技术进行分类和研究,本文介绍了改善图神经网络公平性的先前工作,包括预处理步骤、训练过程和后处理阶段,同时提出了公平性评价指标的直观分类,并对用于基准测试的图数据集进行了总结,还针对未解决的关键问题和挑战进行了讨论。
Jul, 2023
我们提出了一种用于训练关注公平性的图神经网络的新模型,该模型通过整合监督对比损失和环境损失来提高准确性和公平性,实验证明该模型在三个真实数据集上优于其他现有的基于图的学习方法以及之前的模型。
Apr, 2024
本文提出了一种新的公平性概念 —— 图形对照公平性,并基于对照数据增强提出了一种学习节点表示的框架,以减少模型在涉及敏感属性的图形数据中的偏见,该框架在合成和真实世界的图形上的实验表明,优于现有的基线图形对照公平性,并且在预测性能方面有可比性。
Jan, 2022