引入了 $k$NN-LMs,该模型将预训练的神经语言模型与 $k$ 最近邻居模型线性插值。使用此方法在一个强大的 Wikitext-103 LM 中,我们实现了一个新的最先进的困惑度为 15.79,这是一个 2.9 点的提高而无需额外的训练。此外,作者还展示了这种方法在有效地扩展到更大的训练数据和实现领域自适应方面的作用,并认为最近邻搜索是在长尾系统的语言建模中一种有效的方法。
Nov, 2019
本文探究检索增强语言模型及 k - 最近邻语言模型相较于传统参数化语言模型进行下一个单词预测时为何表现更佳的原因,并发现使用不同输入表示、近似最近邻搜索、以及 kNN 分布的 softmax 温度是关键因素,进而将这些启示融入传统语言模型的模型架构和训练方法来提升其表现。
Jan, 2023
本论文探讨了如何利用适配器和重排序模块等方法改进半参数最近邻语言模型($k$NN-LMs)在新领域的适用性,实验证明结合多种方法后平均可以提高 17.1%的困惑度。
Nov, 2022
研究了基于检索增强的语言模型中 $k$NN-LM 中检索文本的词汇和语义匹配对于性能的影响,并通过使用检索结果质量确定插值系数的新表述,成功地提高了英文语言建模数据集 Wikitext-103 和 PG-19 中的困惑度近 4%。
Oct, 2022
研究了 k-nearest neighbor LM 以及 kNN-Prompt 模型在少数样本和零样本任务准确度上的性能,发现其对于扩展任务特定的模糊单词十分有效,且具有在领域适应中快速提高准确度的优势。
May, 2022
利用最近邻推断的半参数化语言模型, NEAREST 引入了最近邻预测解码,可以高效提高生成质量和属性率。
May, 2024
研究探究了在微调阶段引入 kNN 预测的统计数据来提高基线翻译模型,发现通过引入 gating 机制,kNN 的真实概率和强化学习三种方法,相比于传统的微调,可以在四个标准机器翻译数据集上实现一致的改进,尤其于翻译语法关系或功能词时表现出更大的提升。
May, 2023
本文介绍了如何将 k - 最近邻分类器与预训练语言模型相结合以提高自然语言处理的效率,具体方法是采用 k - 最近邻分类器对预训练语言模型进行文本表示,通过校准训练过程来掌握具体实例的困难度,并将校准结果与预训练语言模型的分类器相结合。
Apr, 2023
本文提出了一种用于领域自适应的非参数翻译解决方案 “k 最近邻机器翻译(kNN-MT)”,并通过在聚类的基础上通过对比学习的方式构建紧凑网络,提高了检索效率并且在大型数据集上取得了更好或相当的性能表现,同时对于不同领域的通用性很强。
Apr, 2022
这项研究探讨了将 kNN 检索应用于 GPT-2 117M 等传统语言模型中,以提高性能,证实了通过这种方法可以降低困惑度,并解释了这一现象的潜在原因。
Nov, 2023