Nov, 2023

利用分布式内存驱动多核处理器加速稀疏和循环模型的训练

TL;DR通过在分布式本地内存上使用稀疏和循环模型训练方法,我们观察到与 GPU 相比,使用 MIMD 处理器 (Intelligence Processing Unit) 的稀疏激活张量在训练负载上实现了 5-10 倍的吞吐量增益,且在训练收敛或最终模型性能上没有明显减慢。