KDDJul, 2021

Local2Global: 通过本地培训对图上的全局表示学习进行扩展

TL;DR本文提出了去中心化的 “local2global” 图表示学习方法,首先将输入的图划分为重叠的子图(或 “补丁”,patches),并分别对每个 “补丁” 训练本地表示。然后通过组同步,利用 “补丁” 重叠处的信息来估计最佳对齐的刚性运动集,将局部表示组合成全局一致的表示。相对于现有工作,local2global 的一个关键区别是无需在分布式训练期间进行昂贵的参数同步,可以独立地训练各个 “补丁”。这使得 local2global 可以扩展到大规模工业应用程序,在这些应用中,输入图甚至可能无法适合内存,并以分布方式存储。目前中等规模数据集(高达 7K 个节点和 200K 个边缘)的初步结果是令人鼓舞的,local2global 的图重建性能与全局训练嵌入相当。对大规模数据的 local2global 进行全面评估以及在节点分类和链接预测等下游任务中的应用尚在进行中。