关键词message-passing graph neural networks
搜索结果 - 11
- 通过随机游走学习图上的长程依赖
本文提出了一种名为 NeuralWalker 的新型架构,通过将随机游走视为序列,利用序列模型捕捉这些游走中的长程依赖关系,从而克服了消息传递图神经网络和图变换器方法的局限性,实现更具表达力的图表示,并能够使用任何序列模型来捕捉长程依赖关系 - 通过虚拟节点的概率图重连
隐式重连消息传递神经网络 (IPR-MPNNs) 整合了概率性图重连机制,解决了信息传递受限和结构瓶颈导致的问题,实现了跨较大距离的消息传递,并在多个图数据集上取得了最先进的性能,同时保持了显著更快的计算效率。
- 技术报告:图谱谱令牌 - 增强图变换器的谱信息
通过引入图谱记号和图谱信息,我们提出了一种新颖的方法,将图谱的全局结构直接编码到变换器架构中,以增强图变换器的效果和性能。
- 边缘上的 Weisfeiler-Leman:当更多的表达能力很重要
增强 Weisfeiler-Leman 算法和消息传递图神经网络的表达力的关系对于改进概括能力的条件是不明确的。通过引入子图信息和经典边界理论来探索这种表达力增强和概括能力改善的条件,并提出具有可证明概括性质的基于 $1$-WL 的核和消息 - 无位置编码的图形变换器
Eigenformer 通过一种新颖的对 Laplacian 谱意识的注意机制,在一些标准的图神经网络基准数据集上实现了与最先进的 MP-GNN 体系结构和 Graph Transformers 相当的性能,甚至在某些数据集上超越了最先进的 - 利用持久同调超越持久同调
通过引入颜色分离集的新概念,我们解决了通过持久化同调识别属性图的问题,并建立了区分图的必要和充分条件。基于这些理论洞察力,我们提出了一种称为 RePHINE 的方法,它有效地结合了顶点和边的持久化同调,证明了其在学习图的拓扑特征方面比标准持 - 自监督与核图神经模型相遇:从架构到增强
我们改进了核图神经网络 (KGNNs) 的设计与学习,通过扩展其算法形式并引入自我监督方法,提出了一种更灵活且结构保持的图数据增强方法 (latent graph augmentation),实验证明我们的模型在图分类任务上达到了与先进方法 - 探索图神经网络求解线性优化问题的能力
机器学习中的消息传递图神经网络(MPNNs)可以模拟线性优化问题和组合优化问题,提高解决难解优化问题的效率。
- 关于图神经网络中表达性位置编码的稳定性
设计有效的位置编码对于构建强大的图形变压器和增强消息传递图神经网络至关重要。我们提出了稳定且表达能力强的位置编码(SPE),它是第一个经过验证的稳定架构,同时尊重特征向量的所有对称性,并且至少与现有方法一样具有表达能力,对于基础不变函数非常 - 概率重连的消息传递神经网络
利用最近在精确和可微分的 k 子集采样中的进展,我们设计了一种概率重连的消息传递图神经网络(PR-MPNNs),该网络学习在省略不太有益的边的同时添加相关边。首次,我们的理论分析探索了 PR-MPNNs 如何增强表达能力,并且我们确定了它们 - 图神经网络的细粒度表达能力
该研究探讨了基于图神经网络的表达能力,提出了一种连续化的方法来反映图之间的相似程度并给出了各种拓扑特征的理论框架来描述基于树距离的图表达能力。