BriefGPT.xyz
Ask
alpha
关键词
graph parallelism
搜索结果 - 2
GNNPipe: 使用流水线模型并行加速分布式全图 GNN 训练
采用模型并行而非图并行的分布式全局图神经网络训练方法 GNNPipe,结合基于分块的流水线训练方法以及混合并行性,以减少通信开销并加快训练时间,同时保持相当的模型准确性和收敛速度。
PDF
a year ago
ICLR
针对原子模拟的十亿参数图神经网络训练
本文提出的图并行算法可在多个 GPU 上分布输入图,从而实现训练数十亿个参数的大型 GNN, 该方法在大规模开放铂族催化剂的数据集上取得了新的最先进结果。
PDF
2 years ago
Prev
Next