Sep, 2017
使用三值网络中的稀疏诱导正则化压缩低精度深度神经网络
Compressing Low Precision Deep Neural Networks Using Sparsity-Induced
Regularization in Ternary Networks
TL;DR本文提出了一种低精度深度神经网络训练技术,用于生成稀疏三元神经网络,该技术在训练期间考虑硬件实现成本,以实现重要的模型压缩,结果网络精度提高、内存占用和计算复杂性减少,与传统方法相比,在MNIST和CIFAR10数据集上,我们的网络稀疏度高达98%,比等价二进制和三进制模型小5&11倍,从而在硬件实现方面具有重大资源和速度优势。