本文提出了一种可扩展的基于 GNN 的实体对齐方法,通过三个视角减少子图嵌入中的结构和对齐损失,并在实验中证实了该方法的有效性。
Aug, 2022
本文提出了并行化技术,为图采样 GCN 提供卓越的可扩展性性能,在不妥协准确性的情况下,在非常大的图上实现了优秀的性能。具体地,我们保证了 GCN 的高效训练,并在计算和通信方面节约了数量级的开销,同时,我们的并行图嵌入在可扩展性、效率和准确性方面优于现有的方法。
Oct, 2018
本文通过实证研究,对比了对知识图谱中实体之间关系进行无监督学习的四种嵌入模型( escal,TransE,DistMult 和 ComplEX)使用不同负采样方法的效果,结果发现使用不同负采样方法得到的效果差异较大,且在不同数据集上表现也各有不同。
Aug, 2017
提出了一种基于草图的算法,其训练时间和内存随着图的大小而亚线性增长,通过在少量紧凑的图草图上训练 GNN,避免了与图大小线性相关的复杂性增长,并通过局部敏感哈希(LSH)技术提高草图的质量,实验证明了该算法在大规模图上的可扩展性和竞争性能与完整规模的 GNN 相比。
Jun, 2024
我们提出了使用图神经网络解决 Markov 链描述的动力学网络的图划分问题,通过使用编码器 - 解码器架构和简单的 GraphSAGE-based GNNs 能够在这个背景下胜过更大更有表达力的基于注意力的模型。
Dec, 2023
本文通过提供大规模图训练不同的架构和贴切的评估方法,在分析它们的优点和缺点后,介绍了一个名为 EnGCN 的新的集成训练方式。
Oct, 2022
我们提出了一种高度并行的算法,用于效放缩大处理器计数的图卷积网络的训练。我们利用图的顶点划分,在处理器之间使用非阻塞点对点通信操作以获得更好的可伸缩性。我们基于超图划分模型提出一种稀疏矩阵划分方案,展示了所提出算法在真实世界的图数据集上比替代解决方案实现了相当快的加速(包括在亿级图上的表现)。
Dec, 2022
图神经网络(GNNs)用于链接预测,有两种广泛的分类。首先,以节点为基础的体系结构为每个节点预先计算个体嵌入,之后由简单的解码器组合以作出预测。与推理时的极高效性相比(因为节点嵌入只计算一次并重复使用),模型的表达能力有限,即对候选边贡献的同构节点可能无法区分,从而损害准确性。相反,基于边的方法依赖于形成特定于边的子图嵌入以丰富对配对关系的表示,以消除同构节点以提高准确性,但代价是增加模型复杂性。为了更好地权衡这种权衡,我们提出了一种新颖的 GNN 体系结构,其中 “前向传递” 显式依赖于正向(一般情况下)和负向(我们方法独有)边,以摄入更灵活但仍然廉价的以节点为基础的嵌入。通过将嵌入自身重新定义为正负样本分离的正向传递特定能量函数(与实际训练损失不同),所提出的体系结构在广泛的经验评估中得到了验证,既保持了以节点为基础的模型的推理速度,又产生了与基于边的替代方法竞争性的准确性。
Oct, 2023
本文提出了一种基于自我注意机制的改进图神经网络(GNN)方法以及一个基于预训练模型的半监督自我训练方法。实验结果表明这些方法都可以有效地提高链接预测任务的性能。
Sep, 2022
LinkedIn 在大规模部署的 Graph Neural Networks Framework 中提出了 LiGNN,通过一系列算法改进如图形结构设计、冷启动解决方案和邻居采样优化,实现了在 LinkedIn 图表上大规模训练的速度提升,并总结了在实际部署中所获得的经验教训和改进成果。
Feb, 2024