Jul, 2023

DistTGL: 分布式基于记忆的时间图神经网络训练

TL;DR本文提出一种有效可扩展的方法 DistTGL,该方法通过增强 TGNN 模型、改进训练算法和优化系统,实现了在分布式 GPU 集群上训练内存基础全局连通图神经网络(memory-based temporal graph neural networks)。实验表明,DistTGL 算法比同类单机方法在准确性和训练吞吐量方面分别提高了 14.5% 和 10.17 倍。