Sep, 2023
基于算法、架构和数据流共同设计的高效稀疏DNN训练
Efficient N:M Sparse DNN Training Using Algorithm, Architecture, and
Dataflow Co-Design
TL;DR提出了一个计算高效的N:M稀疏深度神经网络(DNN)训练方案,包括算法、架构和数据流共同设计,并利用双向权重修剪方法和稀疏加速器实现了高效的N:M稀疏DNN训练,在几种DNN模型和数据集上的实验结果表明,在2:8稀疏比率下,该方案相对于密集训练可实现平均1.75倍的加速,准确度损失平均仅为0.56%,在FPGA加速器上训练吞吐量提高了2.97~25.22倍,能效提高了1.36~3.58倍。