Feb, 2023
TAP: 通过张量自动并行化加速大规模深度神经网络训练
TAP: Accelerating Large-Scale DNN Training Through Tensor Automatic Parallelisation
Ziji Shi, Le Jiang, Ang Wang, Jie Zhang, Xianyan Jia...
TL;DR本文提出了一种模型并行框架 TAP,利用神经网络作为有向无环图的性质,设计了一种图剪枝算法以高效地搜索最佳的数据和张量并行计划,实验表明 TAP 比现有自动并行化框架快 20-160 倍,并且其发现的并行化计划比专家设计的计划具有竞争力。