Nov, 2018

关于卷积神经网络中隐式滤波器级别稀疏性的研究

TL;DR研究表明,使用Batch Normalization和ReLU激活的卷积神经网络,在采用适应性梯度下降和L2正则化或权重衰减训练的情况下,会出现滤波器级别的稀疏性,这种隐式的稀疏性可以利用以达到神经网络加速的效果。