Feb, 2020

学习阈值修剪

TL;DR本文提出了一种新的可微分的方法来对深度神经网络进行无结构权重修剪。我们的学习阈值修剪(LTP)方法通过梯度下降学习每层的阈值,与传统方法不同。此外,通过一种新的可微分 $L_0$ 正则化,LTP 能够有效地处理具有批量归一化的体系结构。LTP 能够生成一系列越来越稀疏的网络,从中可以根据稀疏度和性能要求选择所需的修剪网络。