面向分布式训练的图卷积网络通信高效采样
本文提出了并行化技术,为图采样GCN提供卓越的可扩展性性能,在不妥协准确性的情况下,在非常大的图上实现了优秀的性能。具体地,我们保证了GCN的高效训练,并在计算和通信方面节约了数量级的开销,同时,我们的并行图嵌入在可扩展性、效率和准确性方面优于现有的方法。
Oct, 2018
本文针对训练大型图(large graph)时计算量和内存消耗高的问题,提出了一种新的采样算法(LADIES),相比于已有采样算法在时间和内存成本上有更好的表现,并且由于其随机性,具有比原始 full-batch GCN 更好的泛化精度。
Nov, 2019
本研究提出了一种高效的图形卷积网络(GCN)训练框架L-GCN,该框架通过在训练期间解耦功能聚合和功能转换,大大降低了时间和内存复杂度,并提出了L²-GCN,用于每个层学习控制器,可以自动调整每个层的训练时期。实验表明,在不依赖于数据集大小的一致内存使用情况下,L-GCN比现有技术快至少一个数量级,同时保持可比的预测性能。
Mar, 2020
本文提出了一种分布式算法框架来训练图卷积网络,利用了输入数据的有意义的关系结构,并在不同代理之间分割数据图表达的优化通信拓扑结构,提出了一种分布式梯度下降算法来解决GCN训练问题,并建立了一套评价通信拓扑的优化准则。
Jul, 2020
本文介绍了一种通过子图近似方案,在减小同步开销、降低内存占用的同时,解决分布式训练非独立同分布图形数据(如图卷积网络)中信息丢失与准确性问题的训练策略。
Dec, 2020
PipeGCN是一种隐藏分布式图卷积网络(GCN)培训中节点特征和特征梯度通信开销的简单而有效的方案,在训练吞吐量(1.7倍〜28.5倍)大幅提高的同时实现与现有全图培训方法相同的精度。
Mar, 2022
本研究提出一种名为BNS-GCN的简单而有效的方法,采用随机边界节点采样,提高了分布式GCN训练的吞吐量16.2倍,减少了内存使用量高达58%,同时保持全图精度的稳定性,为实现大规模GCN训练开辟了一条新的途径。
Mar, 2022
我们提出了一种高度并行的算法,用于效放缩大处理器计数的图卷积网络的训练。我们利用图的顶点划分,在处理器之间使用非阻塞点对点通信操作以获得更好的可伸缩性。我们基于超图划分模型提出一种稀疏矩阵划分方案,展示了所提出算法在真实世界的图数据集上比替代解决方案实现了相当快的加速(包括在亿级图上的表现)。
Dec, 2022
该论文的主要贡献是在分布式图神经网络训练的采样步骤中提出了减少通信的新方法,其中包括基于矩阵的批量采样方法,用于表示采样为稀疏矩阵乘法(SpGEMM)并一次采样多个小批量。此外,还展示了使用简单的全互连交换合理复制特征数据可以优于当前的分布式图神经网络训练特征提取步骤的方法。
Nov, 2023