Jul, 2023

用于归纳节点表示学习的图压缩

TL;DR图神经网络 (GNNs) 在处理大规模图时遇到了显著的计算挑战,这严重限制了它们在各种应用中的效力。为了解决这个限制,图压缩成为一种有前景的技术,它构建一个小的合成图以有效地训练 GNNs 并保持性能。然而,由于节点之间的拓扑结构,图压缩仅限于压缩观测训练节点及其相应的结构,因此缺乏处理未见数据的能力。因此,在推理阶段仍需要原始大图进行信息传递,导致了大量的计算需求。为了解决这个问题,我们提出了映射感知的图压缩 (MCond),明确学习原始节点到合成节点的一对多映射,以无缝地将新节点整合到合成图中进行归纳表示学习。这使得直接在合成图上进行信息传播比在原始大图上更高效。具体而言,MCond 采用了交替优化方案,具有来自传统的和归纳的角度的创新损失项,促进了图压缩和节点映射学习之间的相互促进。大量实验证明了我们方法在归纳推理中的有效性。在 Reddit 数据集上,与基于原始图的对照方法相比,MCond 在推理速度上实现了高达 121.5 倍的加速和 55.9 倍的存储需求降低。