Feb, 2018

高效稀疏Winograd卷积神经网络

TL;DR提出两种Winograd-based的CNNs的修改方法,即将ReLU操作移至Winograd domain以提高transformed activations的sparsity,以及在Winograd domain中剪枝权重以利用静态权重稀疏性,实现在CIFAR-10,CIFAR-100和ImageNet数据集上的模型减少乘法次数分别达到10.4倍、6.8倍和10.8倍,精度损失小于0.1%,优于先前的基线2.0倍-3.0倍。