通过对预训练语言模型的深入分析,我们发现未经微调的 BERT 模型竞争传统 NLP 方法的关系知识,可以根据开放式关系进行查询,某些类型的事实知识比标准语言模型预训练方法更容易学习,并可以作为无监督的开放式 QA 系统的潜力展现。
Sep, 2019
本文描述了一个架构,利用原始外部知识,基于无监督学习的技术,使得更小的模型可以回答与事实有关的问题,其目的在于能够显式地添加知识,而无需进行大量的训练。
Nov, 2019
本文介绍了一种利用潜在知识检索器扩充语言模型预训练,并将其应用于开放域问答任务中,实现了良好的效果和可解释性。
Feb, 2020
本文研究了大型语言模型记忆的知识与其预训练数据中信息之间的关系,结果发现语言模型回答基于事实的问题的能力与预训练期间看到的相关问题文档数量有强相关性和因果关系;同时,该研究发现,虽然更大的模型能学习更长尾的知识,但需要将模型规模增加数个数量级才能在缺乏支持数据的问题上实现具有竞争性的问答表现。最后,对相关文档数量依赖进行检索增强,能够有效捕捉长尾知识。
Nov, 2022
该研究探讨了大型语言模型的实际效果,并对比了检索增强语言模型的潜力。研究发现,与普通的大型语言模型不同,半参数语言模型将来自外部数据源的模型参数和知识结合起来进行预测。该模型通过视图、查询分析器 / 规划器和来源信息的创新应用使问题回答系统在精度和效率方面显著增强,可能还可用于其他 NLP 任务。
Jun, 2023
本文提出了一种以问答对为基础的编码 - 解码模型,通过该模型的预训练策略,能够在单跳及多跳问题上达到强大性能,并进一步提高了对模型的解释和控制能力,缩小了与段落检索系统之间的性能差距。
Apr, 2022
本论文研究了在大规模无监督文本语料库上预训练的语言模型,结合信息检索系统以纯无监督方式来增强预训练语言模型,并成功提高了其零样本缺失式问答系统的性能,尤其通过使用不同的分隔符处理查询和上下文,让 BERT 能够更好的判断是否匹配上下文从而增加准确性和鲁棒性。
May, 2020
通过使用预训练语言模型,我们尝试研究知识相关对话生成的相关性,发现在使用仅包含少量知识对话的细调过程中,预训练语言模型可以超越需要外部知识的最先进的模型,在自动评估和人类判断方面表现更好。
Nov, 2020
此论文通过在新的问题 / 答案(QA)数据集 PopQA 上对 10 个模型和 4 种增强方法进行大规模的知识探测实验,旨在了解大型语言模型 (LMs) 在记忆事实知识方面的优劣,发现 LMs 在纽约市场上的市场地位相对较低,而检索增强的 LMs 在不需要检索的情况下可以显著地改善性能,并降低推理成本。
Dec, 2022
我们探索了一种知识消毒方法,用于减轻与大型语言模型(LLMs)相关的隐私问题。我们的方法通过微调模型,在查询特定信息时,促使其生成无害回答,如 “我不知道”。实验证实,我们的简单方法不仅最小化了特定知识泄漏,还保留了 LLM 的整体性能。这两个优势加强了对提取攻击的防御,并减少了产生幻觉等有害内容的排放。
Sep, 2023