Apr, 2017

利用整流器单元的稀疏性加速卷积神经网络

TL;DR本研究针对深度卷积神经网络中常用的整流线性单元(ReLU),探究其输出的稀疏性质,并借此来加速卷积计算,通过跳过计算零值神经元的方法,相比传统矩阵乘法,当稀疏度不低于 0.9 时,在 CPU 上实现了较大的加速。