利用大型语言模型中的偏差:针对高效少样本学习的 “偏差 - kNN
本文提出了一种基于最近邻校准框架的预训练语言模型(PLMs)的上下文学习方法,该方法获得了显著的改进,并在某些情感分析任务中实现了与基于调优的方法相当的性能。
Dec, 2022
本研究提出了基于技能的少样本选择方法 Skill-KNN,通过优化输入,生成技能表示法,解决了现有基于预训练嵌入模型的表面自然语言特征易受干扰的问题。经过实验证明,在四个跨领域语义分析任务和四个骨架模型中,Skill-KNN 的表现明显优于现有方法。
May, 2023
本研究探索了大语言模型的嵌入和几何模型对偏见建模准确度的影响,利用 RedditBias 数据库分析文本偏见,在偏见分类上,BERT,尤其是迷你 BERT,表现出色,而多语言模型则表现较差。研究建议改进单语模型,并探索领域特定的偏见。
Nov, 2023
提出了一种用于指示预训练语言模型检测社会偏见的 few-shot 方法,该方法用少量标记过的示例和定义的偏见作为指示提供给模型,大型语言模型的检测效果十分准确。
Dec, 2021
研究了 k-nearest neighbor LM 以及 kNN-Prompt 模型在少数样本和零样本任务准确度上的性能,发现其对于扩展任务特定的模糊单词十分有效,且具有在领域适应中快速提高准确度的优势。
May, 2022
现代大型语言模型拥有丰富的世界知识,可以在正确利用的情况下在常识推理和知识密集型任务方面取得强大的性能。然而,语言模型也能够学习社会偏见,可能对社会造成重大危害。本文提出了一种使用知识图谱增强生成模型的攻击语言模型的新方法,并采用敌对攻击策略诱导多个开源和闭源语言模型产生偏见性回应。我们发现我们的方法增加了所有模型的偏见,即使那些经过安全保护性训练的模型也是如此。这表明在 AI 安全领域需要进一步的研究,以及在这个新的敌对空间中的进一步工作。
May, 2024
本文介绍了如何将 k - 最近邻分类器与预训练语言模型相结合以提高自然语言处理的效率,具体方法是采用 k - 最近邻分类器对预训练语言模型进行文本表示,通过校准训练过程来掌握具体实例的困难度,并将校准结果与预训练语言模型的分类器相结合。
Apr, 2023
引入了 $k$NN-LMs,该模型将预训练的神经语言模型与 $k$ 最近邻居模型线性插值。使用此方法在一个强大的 Wikitext-103 LM 中,我们实现了一个新的最先进的困惑度为 15.79,这是一个 2.9 点的提高而无需额外的训练。此外,作者还展示了这种方法在有效地扩展到更大的训练数据和实现领域自适应方面的作用,并认为最近邻搜索是在长尾系统的语言建模中一种有效的方法。
Nov, 2019
使用 k 近邻(kNN)组件提高语言模型性能,进而结合 BERT 与传统信息检索(IR)和大型文本嵌入数据存储的 kNN 搜索提高开放域问答的召回率。实验结果证明,BERT-kNN 在题型填空问答方面比 BERT 表现更优,尤其在处理罕见事实和未在 BERT 训练集中涉及的事实方面表现突出。
May, 2020