知识增强的预训练模型调查
本文论述了预训练语言模型(PLM)的重要性以及知识增强型预训练语言模型(KE-PLMs)的研究现状,探讨了 KE-PLMs 在各种 NLU 和 NLG 应用中的超越性能以及 KE-PLMs 面临的挑战和未来研究方向。
Oct, 2021
本文利用分类法阐述了如何将外部知识融入预训练语言模型(PLMs)中解决其因缺乏外部知识而导致的推理能力不足问题,以及 KE-PLMs 在 NLU 和 NLG 任务中的应用和未来发展方向。
Nov, 2022
本文介绍了基于预训练语言模型的知识增强模型(PLMKEs)的当前进展,并通过分析三个重要组成部分:知识来源,知识密集型 NLP 任务和知识融合方法来介绍其挑战和未来方向。
Feb, 2022
本文主要介绍了预训练模型在自然语言处理领域的应用。首先简要介绍了语言表示学习及其研究进展,然后系统地从四个角度分类现有的预训练模型,接下来介绍如何将预训练模型的知识应用于下游任务,并提出了一些未来研究的潜在方向。该综述旨在成为一个操作性指南,帮助理解、使用和开发各种自然语言处理任务的预训练模型。
Mar, 2020
本文研究预训练语言模型(如 BERT)在零样本的事实推理任务中的知识捕获,提出一种有效的弱监督预训练目标,通过实体知识的显式融入,实现了对真实世界知识的建模,实验结果表明,该模型在答题、实体类型标注等任务上均优于 BERT。
Dec, 2019
本文介绍了一种新颖的预训练语言模型 DKPLM,它通过解耦知识注入过程的不同阶段,利用基于相关知识三元组的伪标记表示替换长尾实体嵌入,以及设计关系知识解码任务,使得模型在零样本知识探测任务和多种知识感知语言理解任务中表现优异且具有更高的推理速度。
Dec, 2021
我们提出了一种新的预训练模型,利用基于维基百科的知识图谱实现了在实体和关系上的双重表示,以及利用跨度模块进行有效编码,相较于现有模型使用更少的参数。实验结果表明,相比 RoBERTa 模型,我们模型在信息抽取任务上表现更好,尤其在监督学习任务中达到了很高的竞争水平。
Aug, 2022
通过定义知识裸露和无知识 token 并对样本进行专业标注,该研究发现 PLMs 在从非结构化文本中获取知识方面存在困难并开发了两种解决方案来帮助模型进行更多的知识自学习,实验证明了这些方法的有效性,是第一次探索做到完全自我监督的知识连续预训练。
Apr, 2022
本文提出了中文知识增强的预训练语言模型 CKBERT,其中包括语言感知的掩模语言模型和对比多跳关系模型等预训练任务。通过实验对比发现,CKBERT 在各种基准 NLP 任务和不同模型尺寸方面均优于强负载。
Oct, 2022
本文通过在预训练中引入实体信号,将知识意识融入到语言模型的预训练中,无需改变 transformer 体系结构、插入显式知识层或添加语义信息外部存储。实验证明,仅通过添加这些实体信号进行预训练,可以在 transformer 参数中装载更多的知识,从而提高语言建模精度,并在 LAMA 知识探测任务中获得事实的正确性,利用边界分析显示出隐藏表示中的语义,同时表明我们的知识感知语言模型(KALM)可以作为一个可抛弃替换 GPT-2 模型,显著提高了零 - shot 问题回答等下游任务的表现。
Jun, 2020