BriefGPT.xyz
Ask
alpha
关键词
multi-gpu training
搜索结果 - 2
TGL:针对数十亿规模图的时间 GNN 训练的通用框架
本文提出了 TGL,一个适用于大规模离线图神经网络的统一框架,在多个 GPU 上进行训练,该框架包括时间采样器、邮箱、节点内存模块、内存更新器和消息传递引擎等五个主要组件,并通过随机块调度技术解决了训练大批量样本时过时的节点内存等问题。在多
→
PDF
2 years ago
Horovod: 在 TensorFlow 中实现快速且易用的分布式深度学习
本文介绍了 Horovod,它是一个开源库,可通过 ring reductions 实现高效的跨 GPU 通信,只需要对用户代码进行少量修改即可在 TensorFlow 中实现更快、更容易的分布式训练。
PDF
6 years ago
Prev
Next