通过在算法空间中训练 Graph Neural Networks 来解决基于图结构的问题,使用基于最大化的信息传递神经网络来实现离散决策,同时实现了任务迁移并提升学习效果。
Oct, 2019
本文研究了神经算法推理与图神经网络的最新进展,特别关注神经网络的动态规划以及范畴论和抽象代数,验证了它们之间的内在联系,得到在边缘任务上更坚实的 GNN 体系结构,并在 CLRS 算法推理基准测试中证明了实证结果。
Mar, 2022
本文讨论了 “超越消息传递” 这一术语的危害性,提出使用更温和的术语 “增强型消息传递”,并指出大多数实际实现都会使用一些技巧来经过一定的修改后,基于消息传递实现任何我们想要在图上计算的函数。
Feb, 2022
图神经网络是基于迭代计算的节点表示的图机器学习流行架构之一;本文提出了一个新的框架,用于训练图神经网络,其中每个节点可以选择自己的策略,从而更灵活地探索图拓扑结构并进行学习。
Oct, 2023
图神经网络 (GNN) 是用于图的深度学习架构,其可表达性可以由具有计数的一阶逻辑的两个片段来描述。在非均匀设置中,两个 GNN 版本具有相同的可表达性,但在均匀设置中,第二个版本更为表达力强。
Mar, 2024
我们提出了一种受分布式算法设计原则启发的新执行框架:Flood and Echo Net,通过波浪式激活模式在整个图上传播消息,自然地推广到更大的实例,该模型在消息复杂性方面被证明更高效。
本文介绍了一种新的非回溯图神经网络(NBA-GNN)方法,通过避免局部更新中的冗余来提高准确识别信息流的能力,在长距离图基准和节点分类问题中验证了其有效性,并与非回溯更新在随机块模型恢复中的卓越性能建立了联系。
通过梯度下降来学习分布式算法的消息传递图神经网络(GNNs),当节点在推断期间异步更新时,会产生灾难性的错误预测。本研究探讨了这种失败在常见 GNN 架构中的原因,并将 “隐式定义” GNN 作为一类架构来证明其对部分异步 “hogwild” 推断具有鲁棒性,从而适应了异步和分布式优化领域的收敛性保证。然后,我们提出了一种新颖的隐式定义 GNN 架构,称为能量 GNN。我们证明了这种架构在受多智能体系统启发的各种合成任务上胜过了该类中的其他 GNN,并在实际数据集上实现了竞争性能。
Jun, 2024
使用图神经网络作为一种有利于推断任务的推送算法,对于在循环密集的概率有向图上显著优于置信传播算法
Mar, 2018
本文介绍了 Persistent Message Passing (PMP) 机制,该机制为 GNN 的 latent representations 中加入了查询过去状态的能力,从而更好地支持时间依赖性数据结构的查询,允许 GNN 创建新节点来记录历史状态,并在动态时间范围查询上表现出色,具有优于覆盖状态的 GNN 的通用性。
Mar, 2021