本文介绍了如何将 k - 最近邻分类器与预训练语言模型相结合以提高自然语言处理的效率,具体方法是采用 k - 最近邻分类器对预训练语言模型进行文本表示,通过校准训练过程来掌握具体实例的困难度,并将校准结果与预训练语言模型的分类器相结合。
Apr, 2023
引入了 $k$NN-LMs,该模型将预训练的神经语言模型与 $k$ 最近邻居模型线性插值。使用此方法在一个强大的 Wikitext-103 LM 中,我们实现了一个新的最先进的困惑度为 15.79,这是一个 2.9 点的提高而无需额外的训练。此外,作者还展示了这种方法在有效地扩展到更大的训练数据和实现领域自适应方面的作用,并认为最近邻搜索是在长尾系统的语言建模中一种有效的方法。
Nov, 2019
本文提出 $k$NN Prompting 作为在上下文学习中的一种简单有效的解决方案,该方法可以解决由于上下文长度限制导致的训练数据规模不可扩展的问题,并且不需要校准参数,可以有效地缩放数据。
Mar, 2023
本文介绍 EXnet 模型,以进行上下文学习,通过提供例子来促进跨任务泛化,特别是针对文本分类任务。
May, 2023
研究了 k-nearest neighbor LM 以及 kNN-Prompt 模型在少数样本和零样本任务准确度上的性能,发现其对于扩展任务特定的模糊单词十分有效,且具有在领域适应中快速提高准确度的优势。
May, 2022
本研究提出了基于技能的少样本选择方法 Skill-KNN,通过优化输入,生成技能表示法,解决了现有基于预训练嵌入模型的表面自然语言特征易受干扰的问题。经过实验证明,在四个跨领域语义分析任务和四个骨架模型中,Skill-KNN 的表现明显优于现有方法。
本文探讨了如何提高非参数神经语言模型的效率,实验表明我们的方法能够在保持性能相当的情况下提高 6 倍的推理速度,为以后开发或部署更有效的非参数神经语言模型提供指南。
Sep, 2021
本文探究检索增强语言模型及 k - 最近邻语言模型相较于传统参数化语言模型进行下一个单词预测时为何表现更佳的原因,并发现使用不同输入表示、近似最近邻搜索、以及 kNN 分布的 softmax 温度是关键因素,进而将这些启示融入传统语言模型的模型架构和训练方法来提升其表现。
Jan, 2023
本论文探讨了如何利用适配器和重排序模块等方法改进半参数最近邻语言模型($k$NN-LMs)在新领域的适用性,实验证明结合多种方法后平均可以提高 17.1%的困惑度。
Nov, 2022
本文主要研究了基于简单特征变换的最近邻分类器在 few-shot 学习上的精度,并发现在 miniImageNet 数据集中,使用平均值减法和 L2 归一化的最近邻分类器在三个设置上优于之前的结果。