- 未经训练的消息传递层的链接预测
无标记信息传递层在图神经网络中被探索,与完全训练的 MPNN 相比,能够在链路预测中表现出竞争性和优越性能,尤其在存在高维特征的情况下,并通过理论分析将其与基于路径的拓扑节点相似度测量相关联。因此,无标记信息传递架构被视为一种高效且可解释的 - 分子图网络具有多体等变相互作用
通过引入等变向量表示,消息传递神经网络在预测分子相互作用方面表现出显著的功效。在消息传递过程中,两个相对的化学键向量可能会相互抵消,导致他们共享节点上的方向信息丢失。本研究开发了等变 N 体互作用网络(ENINet),明确地整合等变的多体互 - 关于多集合和图神经网络的 Holder 稳定性
通过对多重集模型和消息传递神经网络的分离质量进行分析,我们提出了两个分离质量更高的新型消息传递神经网络,以及在标准图学习任务上与标准消息传递神经网络进行的比较。
- 从状态空间模型中,我们能在图机器学习上学到什么?
提出了一种名为 Graph State Space Convolution (GSSC) 的方法,该方法是 State Space Models (SSMs) 在图结构数据上的扩展,通过利用全局置换等变集合聚合和以节点之间的相对距离作为卷积 - 利用相交社群学习大型图
使用交错社群图的方法提出了一种新的、基于图机器学习的消息传递神经网络算法,可以有效地处理大型非稀疏图上的节点分类和时空数据处理任务。
- 了解虚拟节点:过度平滑、过度压缩和节点异质性
通过增加虚拟节点(VN)来消除层聚合的局部性限制,我们对消息传递神经网络(MPNNs)的角色和优势进行了全面的理论分析,通过过度平滑、过度压缩和敏感性分析的视角。我们提出了一种变种的 VN,具有相同的计算复杂度,可以根据图结构对不同节点进行 - KDD化学 LLM 是否能从信息传递中受益
预训练语言模型和信息传递神经网络在处理分子文本和分子科学领域展示了显著的能力。本文提出了两种策略来评估信息整合是否能增强性能:对比学习和融合,经实证分析表明,当应用于较小的分子图时,整合方法相比基准模型表现出优越性能,而当应用于大规模图时, - 混合图上的消息传递网络的泛化界限
研究了消息传递神经网络(MPNNs)的泛化能力,并给出了具体适用于具有规范化求和和平均聚合的 MPNNs 的泛化边界。在更现实和具有挑战性的情境下,通过分析简单的随机图、扰动的图标和稀疏图,得出结论表明,只要图形足够大,比训练集的大小复杂, - 纯信息传递可用于链路预测中的公共邻居估计
通过利用输入向量的正交性,纯消息传递可以捕捉联合结构特征,我们引入了一种基于消息传递的链接预测模型(MPLP),它利用准正交向量来估计链接级结构特征,同时保留节点级复杂性。我们的方法在各个领域的基准数据集上对于基准方法有一致的优化效果。
- ICML半跳:减速消息传递的图上采样方法
通过添加 “慢速节点” 来改善消息传递神经网络中的学习,提供理论和实证分析,报告在多个监督和自监督基准上的改进,并展示了如何用于自监督学习生成增强,该增强通过在图中不同的边上随机引入慢速节点来产生多尺度视图。
- KDDGraphGLOW: 图神经网络通用且普适的结构学习
本文介绍一种新的问题设置,探索学习通用图结构学习模型以在开放环境下推广,从而进一步优化可适应特定图数据集的图结构,通过多个特定的 GNN 模型应对多样化数据集。
- 晶体物性预测的完整原子势近似有效算法
本文提出了一种通过建立完整的原子间势能模型来准确地表示晶体材料中无限重复模式和远距离原子相互作用的机器学习方法,并将这种方法与消息传递神经网络结合,经实验证明在材料项目基准测试中,该方法具有稳定的性能提高和合理的计算成本。
- 过度压缩如何影响 GNN 的能力?
本文针对图结构数据上的机器学习所使用的最先进的模型 —— 图神经网络 (GNNs) 中的信息传递神经网络 (MPNNs) 类进行研究,分析了不同维度的节点特征在 MPNNs 中的表达能力,并通过新颖的量化特征来解释过压缩效应对 MPNNs - 通过重新思考 Weisfeiler-Lehman 传说走向在 $O (n^2)$ 空间内任意表达的 GNNs
本文提出了一种新的图神经网络的框架 $k$-FWL+,并探究其表达能力及其设计空间的灵活性,使用此框架设计的 N2-GNN 在 ZINC-Subset 和 ZINC-Full 两个数据集上显示了比之前最先进的结果更好的性能。
- ICMLDRew: 动态重连的消息传递与延迟
本文提出了一种适用于任何 MPNN 体系结构的框架,通过执行分层依赖的重连来确保图逐渐密集,同时提出了一种可延迟的机制,允许基于层和彼此的距离,节点之间进行跳过连接,并在几个长程任务上验证了该方法,表明它胜过了图转换器和多跳 MPNN。
- ICML从关系池化到子图 GNN:更具表现力的图神经网络的通用框架
本文提出了一种通过为节点分配标签来提高信息传递神经网络表达能力的方法,并将其扩展到更高维的 WL,实现了比以往任何基于 WL 的方法更广泛的 GNN 框架。我们证明了 $k,l$-GNN 在理论和实验中都具有提高表达能力的能力和广泛适用性。
- 消息传递神经网络中过度压缩的影响:宽度、深度和拓扑的影响
通过理论分析,证明神经网络节点宽度可以缓解过度压缩问题,而神经网络深度则无法解决此问题。节点距离越远的高通勤时间节点之间出现过度压缩现象,而图形改写属于解决此问题的一类方法。
- 具有图形原始信息的提升消息传递神经网络
本文研究如何全面利用信息,从理论和实践上提高信息传递神经网络的表现力和可推广性,并提出一种新的名为 INGNN 的图神经网络模型,针对节点分类任务,与目前最先进的方法相比,实验证明其优越性(平均排名 1.78)。
- MACE:用于快速准确势场的高阶等变消息传递神经网络
本研究提出了一种使用更高级别信息的 MPNN 模型:MACE,通过使用四体信息代替两体信息,在 rMD17, 3BPA 和 AcAc benchmark 任务上实现了与或高于最新技术水平的精度并且能够快速且高度可并行化。
- 大规模随机图上消息传递神经网络的泛化分析
研究了 MPNN 在图分类和回归中的泛化误差,表明 MPNN 的复杂度越高,泛化差距越大;同时,不仅训练样本数,而且图中平均节点数对泛化差距也有影响。从统一收敛结果导出泛化界限,表明在图上应用 MPNN 可以逼近离散化的几何模型上的 MPN