本文提出了一种名为 Identity-aware Graph Neural Networks (ID-GNNs) 的消息传递图神经网络,通过节点中心的次元网络和异构消息传递来考虑节点的身份,在图形预测任务中比传统的 GNNs 提供更高的准确性。
Jan, 2021
隐式重连消息传递神经网络 (IPR-MPNNs) 整合了概率性图重连机制,解决了信息传递受限和结构瓶颈导致的问题,实现了跨较大距离的消息传递,并在多个图数据集上取得了最先进的性能,同时保持了显著更快的计算效率。
May, 2024
本文提出了一种称为 GNN-AK 的框架,旨在将任何 MPNN 提升为具有更高表达能力的模型,通过扩展 MPNN 中的局部聚合算法到更一般的子图模式,以提高实用性能,同时维持可扩展性;这种方法被证明比常见的 Weisfeiler-Lehman 同构测试更具表达能力,可以用于多个图机器学习任务中.
Oct, 2021
利用最近在精确和可微分的 k 子集采样中的进展,我们设计了一种概率重连的消息传递图神经网络(PR-MPNNs),该网络学习在省略不太有益的边的同时添加相关边。首次,我们的理论分析探索了 PR-MPNNs 如何增强表达能力,并且我们确定了它们优于纯随机方法的精确条件。经验证实,我们的方法有效地缓解了如过度压缩和预测能力不足等问题。此外,根据现有的真实世界数据集,我们的方法在预测性能上与传统的 MPNN 模型和最近的图变压器架构相比表现出有竞争力或更好的性能。
Oct, 2023
研究了 MPNN 在图分类和回归中的泛化误差,表明 MPNN 的复杂度越高,泛化差距越大;同时,不仅训练样本数,而且图中平均节点数对泛化差距也有影响。从统一收敛结果导出泛化界限,表明在图上应用 MPNN 可以逼近离散化的几何模型上的 MPNN。
Feb, 2022
本文将图上定义的神经网络呈现为信息传递神经网络(MPNN),通过研究不同类别的这些模型的区别能力,探讨它们的识别能力,研究传统的图神经网络和卷积图神经网络对顶点进行特征标注的能力的界限,并使用 Weisfeiler-Lehman 算法对 MPNNs 的区分能力进行了上下界的研究。
Apr, 2020
该研究提出了一种新的、适应性强的信息传递框架 ——bilateral-MP,利用节点类别信息估计成对的模块化梯度,并在聚合函数应用时利用梯度进一步保留全局图结构,在五个中等规模基准数据集上的实验表明,bilateral-MP 可以有效防止过度平滑导致的性能降低。
本文研究了基于图传递的神经网络(MPNNs),通过在频域设计非线性的自定义滤波器函数并使用任意大的感受野进行掩膜,其理论上比 1-WL 测试显得更加强大,且实际上具有与现有 3-WL 模型同样的性能,同时仍保持局部化。通过本方法可以实现 LOD 更新机制和输出谱复杂性,从而在许多下游任务中达到先进水平。
Jun, 2021
该论文从局部到全局的角度,介绍了图神经网络的两种类型 —— 局部信息传递神经网络和全局图变换器,并对不变图网络的收敛特性进行了研究;连接局部信息传递神经网络和全局图变换器;使用局部信息传递神经网络实现了图缩减等全局建模中常用的子程序。
Jun, 2023
通过引入分层支持图 (HSG),该研究在 MPNN 中提出了一种解决局限性的策略,以促进图中的全局信息交流,经过理论分析和实证研究发现,HSG 能够在多个数据集上达到最先进的性能。
Jun, 2024