Mar, 2024

图神经网络输出几乎肯定是渐近常数

TL;DR图神经网络(GNN)是用于各种图学习任务的主要架构。我们通过研究 GNN 概率分类器在从某个随机图模型中抽取的较大图上应用时的预测如何演变来呈现 GNN 表达能力的新视角。我们展示了输出收敛为常函数的现象,这个常函数上界了这些分类器能够统一表达的内容。这种收敛现象适用于包括最先进模型在内的广泛类别的 GNN,其中包括均值聚合和图转换器中的基于注意力的机制。我们的结果适用于包括(稀疏的)Erdős-Rényi 模型和随机块模型在内的广泛类别的随机图模型。我们通过实证验证了这些发现,并观察到即使在相对较小的图上,收敛现象已经显现出来。