利用社区结构减轻消息传递机制中的度偏差
通过引入 GraphPatcher 框架,本文提出了一种具有测试时间增强功能的方法,旨在增强图神经网络对低度节点的泛化性能,并保留其在高度节点上的原有优势性能。
Oct, 2023
本篇研究提出了一种新颖的方法,即综合结构知识增强图神经网络 (CoS-GNN),通过引入新的消息传递方法,使得图神经网络能够利用丰富的节点和图级结构特征以及原始节点特征,在增强的图结构中大大改善了图神经网络的结构知识建模,从而实现了显著改进的图表示。在大量实证结果中,CoS-GNN 在包括图分类、异常检测和超出分布泛化在内的各种图级学习任务中优于现有的模型。
May, 2024
本文提出了一种新的基于几何学聚合的 aggregation 方案,包含三个模块:节点嵌入,结构化邻域和双层聚合,并将其实现到图卷积网络中,命名为 Geom-GCN。在多个开放数据集上的实验结果表明,Proposed Geom-GCN 已经达到了当前状态的最佳性能。
Feb, 2020
提出了一种使用 Transformer 结构的通信信息传递神经网络 (CoMPT), 以加强节点和边之间的消息交互,提高分子图的表示能力,在七个化学性质数据集和两个化学位移数据集上的实验证明了所提出模型的卓越性能。
Jul, 2021
本文针对传统图神经网络中存在的公平性问题,提出了一种新的 GNN 框架,使用可学习的去偏函数来消除不同节点间的度数差异所导致的偏差,以解决节点分类问题中存在的偏差。
Feb, 2023
通过实验分析,我们探索将图结构作为整体像节点一样进行学习的可行性,并基于我们的发现,提出了一种基于图粗化的多视图图结构表示学习模型(MSLgo)来进行图分类。我们通过层次启发式图粗化压缩循环和团,并通过精心设计的约束进行限制,从而构建了粗化视图以学习结构之间的高级交互。我们还引入线图来进行边嵌入,切换到以边为中心的视角构建转换视图。通过对六个真实数据集的实验,证明了 MSLgo 在多种架构上超过了 14 个基线的改进。
Apr, 2024
我们在图表示学习中发现了一种社区偏见放大现象,它指的是图表示学习在不同类别之间加剧了性能偏见。我们从新颖的光谱角度对该现象进行了深入的理论研究,发现社区之间的结构偏见导致了节点嵌入的局部收敛速度不同,这一现象导致了下游任务分类结果的偏见放大。基于理论洞察,我们提出了随机图粗化来有效解决上述问题。最后,我们提出了一种名为随机图粗化对比学习(RGCCL)的新颖图对比学习模型,它利用随机粗化作为数据增强,并通过将粗化的图与原始图进行对比来减轻社区偏见。我们在各种数据集上进行了大量实验证明了我们的方法在处理社区偏见放大时的优势。
Dec, 2023
通过全球节点和超边之间的全球关联以及捕捉节点和超边之间的局部连接性,提出了一种新颖的超图学习框架,称为 HyperGraph Transformer(HyperGT),该框架利用基于 Transformer 的神经网络结构来有效地处理超图结构化数据,实现了全面的超图表示学习,并在超图节点分类任务中取得了出色的性能,超过了现有方法,建立了新的基准水平。
Dec, 2023
图神经网络(GNN)在节点分类任务中通常对高度节点优于低度节点,而这种度偏见由于众多假设的不严格验证以及可能的矛盾而加剧了社会边缘化。本论文通过分析不同图过滤器的信息传递 GNN 的度偏差的起源,证明了无论 GNN 如何被训练,高度测试节点都倾向于存在更低的误分类概率。此外,论文还说明了度偏见源于与节点度相关的各种因素(如邻居的同质性和多样性)。通过将发现与先前提出的度偏差起源的假设相连接,论文支持和统一了某些假设,同时对其他假设提出了疑问。论文在 8 个常见实际网络上验证了理论发现,并基于理论和实证研究结果,描述了减轻度偏见的路线图。
Apr, 2024