最近邻语言模型的自适应方法
本文介绍了 $k$NN-Adapter 方法,该方法是基于检索增强语言模型,通过将语言模型的输出和目标域数据存储中的检索结果进行自适应加权插值,有效地适应黑盒大型语言模型到新的领域。实验结果表明,$k$NN-Adapter 方法显著提高了语言模型的困惑度,在训练数据有限的情况下比微调更有效。
Feb, 2023
引入了 $k$NN-LMs,该模型将预训练的神经语言模型与 $k$ 最近邻居模型线性插值。使用此方法在一个强大的 Wikitext-103 LM 中,我们实现了一个新的最先进的困惑度为 15.79,这是一个 2.9 点的提高而无需额外的训练。此外,作者还展示了这种方法在有效地扩展到更大的训练数据和实现领域自适应方面的作用,并认为最近邻搜索是在长尾系统的语言建模中一种有效的方法。
Nov, 2019
本文探讨了如何提高非参数神经语言模型的效率,实验表明我们的方法能够在保持性能相当的情况下提高 6 倍的推理速度,为以后开发或部署更有效的非参数神经语言模型提供指南。
Sep, 2021
提出了一种基于自动编码器的 $k$NN-MT 方法,可以利用目标语言的单语句子构建有效的数据库来达到无监督的领域自适应翻译,从而提高翻译的准确性和可靠性。
Sep, 2021
本文提出了一种基于句子级检索的最近邻机器翻译框架,用于快速领域自适应,该框架旨在大大提高 kNN-MT 模型的解码和存储效率,并且不会影响翻译性能。实验证明,该框架不仅能够达到与 NMT 模型相同的速度,且能够显著减少存储要求。
Feb, 2023
本文探究检索增强语言模型及 k - 最近邻语言模型相较于传统参数化语言模型进行下一个单词预测时为何表现更佳的原因,并发现使用不同输入表示、近似最近邻搜索、以及 kNN 分布的 softmax 温度是关键因素,进而将这些启示融入传统语言模型的模型架构和训练方法来提升其表现。
Jan, 2023
研究了基于检索增强的语言模型中 $k$NN-LM 中检索文本的词汇和语义匹配对于性能的影响,并通过使用检索结果质量确定插值系数的新表述,成功地提高了英文语言建模数据集 Wikitext-103 和 PG-19 中的困惑度近 4%。
Oct, 2022
本文介绍了如何将 k - 最近邻分类器与预训练语言模型相结合以提高自然语言处理的效率,具体方法是采用 k - 最近邻分类器对预训练语言模型进行文本表示,通过校准训练过程来掌握具体实例的困难度,并将校准结果与预训练语言模型的分类器相结合。
Apr, 2023
该论文探讨了加速最近邻机器翻译的几种方法,其中介绍了一种简单但有效的缓存策略,避免了之前出现过的类似上下文的再次检索。翻译质量和运行时间表明了这些解决方案的有效性。
Apr, 2022
这项研究探讨了将 kNN 检索应用于 GPT-2 117M 等传统语言模型中,以提高性能,证实了通过这种方法可以降低困惑度,并解释了这一现象的潜在原因。
Nov, 2023