May, 2020
动态稀疏训练:通过可训练掩码层从头开始找出高效的稀疏网络
Dynamic Sparse Training: Find Efficient Sparse Network From Scratch With
Trainable Masked Layers
TL;DR本文介绍了一种新的神经网络剪枝算法——Dynamic Sparse Training,它可以通过可训练的剪枝门限实现优化神经网络参数和结构,并通过反向传播动态地进行精细化调整。利用这一算法,我们可以轻松训练出效果优秀的稀疏神经网络。与其他稀疏训练算法相比,Dynamic Sparse Training在多个网络架构上取得了业界领先水平。此外,我们还发现了传统三阶段剪枝算法的潜在问题,为更紧凑的神经网络架构设计提供了理论指导。