Sep, 2017

使用三值网络中的稀疏诱导正则化压缩低精度深度神经网络

TL;DR本文提出了一种低精度深度神经网络训练技术,用于生成稀疏三元神经网络,该技术在训练期间考虑硬件实现成本,以实现重要的模型压缩,结果网络精度提高、内存占用和计算复杂性减少,与传统方法相比,在 MNIST 和 CIFAR10 数据集上,我们的网络稀疏度高达 98%,比等价二进制和三进制模型小 5&11 倍,从而在硬件实现方面具有重大资源和速度优势。