消息传递神经网络学习 Little's 定律
无标记信息传递层在图神经网络中被探索,与完全训练的 MPNN 相比,能够在链路预测中表现出竞争性和优越性能,尤其在存在高维特征的情况下,并通过理论分析将其与基于路径的拓扑节点相似度测量相关联。因此,无标记信息传递架构被视为一种高效且可解释的链路预测方法。
Jun, 2024
研究了 MPNN 在图分类和回归中的泛化误差,表明 MPNN 的复杂度越高,泛化差距越大;同时,不仅训练样本数,而且图中平均节点数对泛化差距也有影响。从统一收敛结果导出泛化界限,表明在图上应用 MPNN 可以逼近离散化的几何模型上的 MPNN。
Feb, 2022
通过在节点特征的基础上传播节点的 One-hot 编码,以学习每个节点周围的本地上下文矩阵以及保证置换等变性的消息和更新函数,我们提出了一种具有强大表达能力和等变性的消息传递框架,用于对图形网络进行建模,实验表明本模型可以更准确地预测合成数据上的图形拓扑性质,并在 ZINC 数据集的分子图回归任务中取得了最优结果。
Jun, 2020
该论文提出了一种基于 Simplicial Message Passing 框架来处理分子结构的方法,其中包括用于量子化学性质预测的深度学习体系结构,并比传统的 MPNN 表现更好。
Jun, 2023
本文介绍了一种基于神经网络模型的消息传递神经网络 (Message Passing Neural Networks, MPNN), 并探索了 MPNNs 的衍生变体。在化学性质预测基准测试中,使用 MPNNs 获得了最先进的结果,表明将来的研究应该集中在具有更大分子或更精确地基础事实标签的数据集上。
Apr, 2017
通过利用输入向量的正交性,纯消息传递可以捕捉联合结构特征,我们引入了一种基于消息传递的链接预测模型(MPLP),它利用准正交向量来估计链接级结构特征,同时保留节点级复杂性。我们的方法在各个领域的基准数据集上对于基准方法有一致的优化效果。
Sep, 2023
利用最近在精确和可微分的 k 子集采样中的进展,我们设计了一种概率重连的消息传递图神经网络(PR-MPNNs),该网络学习在省略不太有益的边的同时添加相关边。首次,我们的理论分析探索了 PR-MPNNs 如何增强表达能力,并且我们确定了它们优于纯随机方法的精确条件。经验证实,我们的方法有效地缓解了如过度压缩和预测能力不足等问题。此外,根据现有的真实世界数据集,我们的方法在预测性能上与传统的 MPNN 模型和最近的图变压器架构相比表现出有竞争力或更好的性能。
Oct, 2023
本文提出了一种适用于任何 MPNN 体系结构的框架,通过执行分层依赖的重连来确保图逐渐密集,同时提出了一种可延迟的机制,允许基于层和彼此的距离,节点之间进行跳过连接,并在几个长程任务上验证了该方法,表明它胜过了图转换器和多跳 MPNN。
May, 2023
图神经网络是基于迭代计算的节点表示的图机器学习流行架构之一;本文提出了一个新的框架,用于训练图神经网络,其中每个节点可以选择自己的策略,从而更灵活地探索图拓扑结构并进行学习。
Oct, 2023