Jun, 2018

GroupReduce: 块状低秩逼近神经语言模型压缩

TL;DR本文提出了一种新的神经语言模型压缩方法,基于基于词汇划分的低秩矩阵逼近和词汇分布的幂律分布,相比传统压缩方法更优,在 OBW 数据集上实现了 6.6 倍的压缩率,采用量化可以实现 26 倍的压缩率,而且模型困惑度几乎没有降低。