KEPLET:具备主题实体意识的知识增强预训练语言模型
本文提出了一种名为 KEPLER 的模型,将知识嵌入和预训练自然语言表示模型有效地结合起来,能够在多种自然语言处理任务上取得最先进的表现,并且能够作为一种归纳式知识嵌入模型在 KG 链接预测中取得显著的效果,同时构建了大规模的带有实体描述的知识图谱数据集 Wikidata5M 以成为新的知识嵌入基准,并促进大型知识图谱、归纳式知识嵌入和具有文本的知识图谱研究。
Nov, 2019
TRELM 是一种强大高效的预训练框架,用于提升语言模型的知识扩充能力,并在知识探测任务和多种知识感知语言理解任务中表现优于其他基于知识的语言模型。
Mar, 2024
本文论述了预训练语言模型(PLM)的重要性以及知识增强型预训练语言模型(KE-PLMs)的研究现状,探讨了 KE-PLMs 在各种 NLU 和 NLG 应用中的超越性能以及 KE-PLMs 面临的挑战和未来研究方向。
Oct, 2021
本文利用分类法阐述了如何将外部知识融入预训练语言模型(PLMs)中解决其因缺乏外部知识而导致的推理能力不足问题,以及 KE-PLMs 在 NLU 和 NLG 任务中的应用和未来发展方向。
Nov, 2022
本文提出了一种 PELE 方法,通过聚合出现在大规模语料库中的实体的输出表示,能够将相关语料库中的实体知识灵活有效地传输到具有不同架构的预训练语言模型中,只需要 0.2%-5% 的预计算能够在域自适应场景中从域外语料库获取知识,实验表明该方法比以前的知识增强预训练语言模型更为优秀。
Feb, 2022
本文介绍了一种新颖的预训练语言模型 DKPLM,它通过解耦知识注入过程的不同阶段,利用基于相关知识三元组的伪标记表示替换长尾实体嵌入,以及设计关系知识解码任务,使得模型在零样本知识探测任务和多种知识感知语言理解任务中表现优异且具有更高的推理速度。
Dec, 2021
本文介绍了基于预训练语言模型的知识增强模型(PLMKEs)的当前进展,并通过分析三个重要组成部分:知识来源,知识密集型 NLP 任务和知识融合方法来介绍其挑战和未来方向。
Feb, 2022
该论文提出了一种基于微调过程的知识感知语言模型框架,将领域知识通过关系图嵌入到预训练语言模型中并进行动态更新,取得了比其他知识增强模型更显著的机器阅读理解任务的性能改进。
Sep, 2021
Knowledge-Enhanced Pre-trained Language Models improve downstream NLP tasks in closed domains by injecting knowledge facts from Knowledge Graphs using the proposed KANGAROO framework that captures implicit graph structure and employs data augmentation for better performance.
Nov, 2023
我们提出了 ConcEPT,即概念增强的预训练语言模型,将概念知识引入 PLMs,通过预测预训练上下文中提及实体的概念来提高模型性能,并通过实验验证了该模型在实体类型等任务中改善了概念知识的有效性。
Jan, 2024