FastText.zip:压缩文本分类模型
本文介绍了一种用于文本分类的简单高效的基线方法 fastText,在准确性方面通常与深度学习分类器相媲美,但在训练和评估方面快了数个数量级。我们用标准的多核 CPU 可以在不到十分钟的时间内对十亿多个单词进行训练,并在不到一分钟的时间内对 312K 种类别的 50 万个句子进行分类。
Jul, 2016
我们研究了文本的语义压缩,其中文本中包含的含义被传达给源编码器,例如用于分类。我们提出了一种利用句子嵌入和语义失真度量来保持含义的语义量化和压缩方法。我们的结果表明,与语义不可知基线相比,所提出的语义方法在所需消息表示的比特数量方面节省大量资源,仅以非常适度的准确性损失为代价。我们比较了所提出方法的结果,并观察到语义量化所实现的资源节省可以通过语义聚类进一步增强。重要的是,我们观察到所提出方法的普适性,其在许多基准文本分类数据集上都获得了出色的结果,涵盖了多样化的环境。
Sep, 2023
该论文提出了一种使用少量基向量构建嵌入式编码、使用 Gumbel-softmax 技巧直接学习离散码表的自然语言处理模型压缩方法,并在情感分析和机器翻译任务中实现了 98% 的压缩率,从而达到在不影响性能的前提下减少内存占用的目的,该方法不需要改变网络结构且具有语言无关性。
Nov, 2017
本研究提出一种深度学习模型的压缩方法,利用低秩矩阵因式分解来压缩自然语言处理中的字词嵌入层,经过实验证明可以在 90% 的压缩比下保持精度不受影响,并且在句子分类任务上表现优于其他方法,同时还引入了一种新的学习率调度算法 CALR,其在句子分类基准测试中表现出优越性。
Nov, 2018
该论文研究了如何将基于 Billion-scale 数据集预训练的文本到图片生成模型用于图像压缩,并证明这些模型可以在很低的比特率情况下实现比学习压缩器更好的感知和语义保真度。
Jul, 2023
我们提出了一种能够以比现有技术快 12 倍以上的速度压缩矢量并加速近似向量操作的矢量量化算法,用于计算近似点积等操作的速度可提高 10 倍以上,可以加速最近邻搜索和最大内积搜索 100 倍以上,并且与现有的矢量量化算法相比误差竞争力强。
Jun, 2017
本文研究了针对基于循环神经网络的语言建模问题的几种压缩技术。通过使用 Penn Treebank(PTB)数据集,我们比较了 LSTM 网络的剪枝、量化、低秩分解、张量列车分解对模型大小和适用于快速推理的适合性,并发现传统的 LSTM 网络要么拥有高空间复杂度,要么具有相当大的推理时间;这个问题对于移动应用程序尤其关键,因为不适用于与远程服务器进行不断的交互。
Aug, 2017