Learning node embeddings that capture a node's position within the broader
graph structure is crucial for many prediction tasks on graphs. However,
existing graph neural network (GNN) architectures have limited p
本文旨在加深对大型图上图神经网络(GNNs)的理论理解,特别是着重于它们的表达能力。通过对等变 GNNs 生成的函数空间进行更完整和直观的描述,我们强调了输入节点特征的作用,并研究了节点位置编码(PEs)的影响,这是最近一项在实践中表现出卓越成果的研究。通过对大型随机图的 PEs 的研究,我们将先前已知的普适性结果扩展到了更为普遍的模型,同时提出了一些规范化技巧,这在合成和实际数据上得到了正面的验证。