Feb, 2021

加速稀疏神经网络的训练:一种可以证明有效的 N:M 可转换掩码发现方法

TL;DR本研究提出了一种新的称为掩码多样性的度量方法来降低 DNN 的内存占用,并介绍了一种可同时用于前向和后向传递的新型可转置细粒度稀疏掩码,通过使用最小成本流问题来寻找最优的可转置掩码,并且还提出了一种将无结构稀疏模型转换为 N:M 细粒度块稀疏模型的方法。