本文提出了一种基于贝叶斯稀疏化技术的 RNN 压缩方法,在不需要进行时间耗费的超参数调整的情况下,将 RNN 压缩数十倍甚至数百倍;同时提出了一种对词汇进行稀疏化过滤的扩展模型,可以更进一步地压缩 RNN。实验结果表明所选的单词是可解释的。
Oct, 2018
该论文提出了一种使用少量基向量构建嵌入式编码、使用 Gumbel-softmax 技巧直接学习离散码表的自然语言处理模型压缩方法,并在情感分析和机器翻译任务中实现了 98% 的压缩率,从而达到在不影响性能的前提下减少内存占用的目的,该方法不需要改变网络结构且具有语言无关性。
Nov, 2017
本文考虑了针对循环神经网络的多种压缩技术,特别关注大词汇量带来的高维输出问题,探讨剪枝、量化和矩阵分解在语言模型中的有效压缩方法,以及大小、适用性和困惑度的取舍,最终提出一种压缩循环神经网络的通用流程,并使用 Penn Treebank 数据集展示了矩阵分解技术在速度和压缩 - 困惑度平衡方面的最佳结果。
Feb, 2019
本文研究了针对基于循环神经网络的语言建模问题的几种压缩技术。通过使用 Penn Treebank(PTB)数据集,我们比较了 LSTM 网络的剪枝、量化、低秩分解、张量列车分解对模型大小和适用于快速推理的适合性,并发现传统的 LSTM 网络要么拥有高空间复杂度,要么具有相当大的推理时间;这个问题对于移动应用程序尤其关键,因为不适用于与远程服务器进行不断的交互。
Aug, 2017
本文介绍了一种通过在 RNN 中的输入和输出嵌入层共享参数来压缩模型参数的方法,实验证明该方法可大幅减小模型参数的大小,但仍能在自然语言处理中保持模型的准确性和性能表现。
我们提出了一种新的紧凑嵌入结构,通过对预训练语言模型中的标记之间的上下文关系进行一组子空间嵌入和分配过程,来减少预训练语言模型的内存占用,牺牲高达 4% 的绝对准确率。我们的实验结果表明,子空间嵌入在 XNLI 和 GLUE 基准套件上与原始嵌入相比,达到了超过 99.8% 的压缩率。
Aug, 2023
本文提出了一种新的神经语言模型压缩方法,基于基于词汇划分的低秩矩阵逼近和词汇分布的幂律分布,相比传统压缩方法更优,在 OBW 数据集上实现了 6.6 倍的压缩率,采用量化可以实现 26 倍的压缩率,而且模型困惑度几乎没有降低。
Jun, 2018
提出一种将词向量转换成稀疏(可选二进制)向量的方法,使得词向量更接近于自然语言处理中常用的可解释特征,但这些特征是从原始语料库中自动发现的,并且在基准任务上优于原始向量。
Jun, 2015
提出了两种新的单词向量表示模型,通过神经网络计算大型数据集中单词的连续向量表示,相较于其他神经网络技术在词语相似度任务上提高了准确性且计算效率更高,此外还展示了这些向量在测量语法和语义相似度的测试集上有最先进的性能表现。
Jan, 2013
该论文研究了使用词向量空间中的哈希技术压缩向量表达的内部结构对嵌入式表示存储优化的影响,同时探讨了二元分解对于嵌入式表示的可解释性的提高。
Nov, 2015