Feb, 2019

基于压缩的循环神经网络用于高效语言建模

TL;DR本文考虑了针对循环神经网络的多种压缩技术,特别关注大词汇量带来的高维输出问题,探讨剪枝、量化和矩阵分解在语言模型中的有效压缩方法,以及大小、适用性和困惑度的取舍,最终提出一种压缩循环神经网络的通用流程,并使用 Penn Treebank 数据集展示了矩阵分解技术在速度和压缩 - 困惑度平衡方面的最佳结果。