本研究提出了知识提示范式和基于知识提示的 Pre-trained 语言模型 KP-PLM 框架,该框架通过多种连续提示规则将知识子图转化为自然语言提示,并在这些提示的基础上提出了两个新的知识感知无监督任务,实验证明了 KP-PLM 在多个自然语言理解任务中的优越性。
Oct, 2022
本文利用分类法阐述了如何将外部知识融入预训练语言模型(PLMs)中解决其因缺乏外部知识而导致的推理能力不足问题,以及 KE-PLMs 在 NLU 和 NLG 任务中的应用和未来发展方向。
Nov, 2022
通过定义知识裸露和无知识 token 并对样本进行专业标注,该研究发现 PLMs 在从非结构化文本中获取知识方面存在困难并开发了两种解决方案来帮助模型进行更多的知识自学习,实验证明了这些方法的有效性,是第一次探索做到完全自我监督的知识连续预训练。
Apr, 2022
将预训练语言模型与外部知识源相结合,可以增强其上下文处理能力,克服传统语言模型的问题,如错觉、无依据的回答和可拓展性挑战。
Sep, 2023
本文论述了预训练语言模型(PLM)的重要性以及知识增强型预训练语言模型(KE-PLMs)的研究现状,探讨了 KE-PLMs 在各种 NLU 和 NLG 应用中的超越性能以及 KE-PLMs 面临的挑战和未来研究方向。
Oct, 2021
本文提出了一种名为 'rethinking with retrieval' (RR) 的后置处理方法,借助 'chain-of-thought' (CoT) 提示中的分解推理步骤检索相关的外部知识,从而改善大语言模型在常识推理、时间推理和表格推理等方面的性能。
Dec, 2022
本文介绍了基于预训练语言模型的知识增强模型(PLMKEs)的当前进展,并通过分析三个重要组成部分:知识来源,知识密集型 NLP 任务和知识融合方法来介绍其挑战和未来方向。
Feb, 2022
本文介绍了一种利用潜在知识检索器扩充语言模型预训练,并将其应用于开放域问答任务中,实现了良好的效果和可解释性。
Feb, 2020
使用知识图谱,结合自然语言处理模型和图神经网络为基础,研究出一种新的知识型篇章再排序方法,提高了特定领域问题的查询准确性。
本文通过在预训练中引入实体信号,将知识意识融入到语言模型的预训练中,无需改变 transformer 体系结构、插入显式知识层或添加语义信息外部存储。实验证明,仅通过添加这些实体信号进行预训练,可以在 transformer 参数中装载更多的知识,从而提高语言建模精度,并在 LAMA 知识探测任务中获得事实的正确性,利用边界分析显示出隐藏表示中的语义,同时表明我们的知识感知语言模型(KALM)可以作为一个可抛弃替换 GPT-2 模型,显著提高了零 - shot 问题回答等下游任务的表现。
Jun, 2020