本研究探讨基于预训练语言模型作为知识库的 Paradigm,提出两个基本要求:存储大量涉及大量实体的事实和查询存储的事实的能力,并探索了三种实体表示法,提供了一个实证,证明语言模型确实可以作为知识库。
Aug, 2020
通过创建生物医学知识三元组的基准测试 BioLAMA,研究了预训练语言模型是否可用作具有生物医学特定领域知识的知识库。发现在近期提出的探测方法下,生物医学语言模型可以在检索生物医学知识方面取得 18.51% 的精确度,但多数预测与无主题的提示模板高度相关,因此限制了它们作为特定领域知识库的能力。
Sep, 2021
使用大型语言模型构建知识库的 LLM2KB 系统有不同于基础模型的参数紧凑的注入模型,通过 LoRA 技术调整指令以便使用 Wikipedia 页面上下文实体,并在 LM-KBC 挑战中取得了 0.6185 的平均 F1 得分。
Aug, 2023
大型语言模型在理解和生成复杂查询方面表现出了卓越的能力,但它们在存储、回忆和推理大规模结构化知识方面的有效性仍有待研究,本研究发现虽然大型语言模型有望作为大规模知识库灵活地检索和回答问题,但需要增强它们的推理能力以充分发挥潜力。
Feb, 2024
本文利用分类法阐述了如何将外部知识融入预训练语言模型(PLMs)中解决其因缺乏外部知识而导致的推理能力不足问题,以及 KE-PLMs 在 NLU 和 NLG 任务中的应用和未来发展方向。
Nov, 2022
通过对预训练语言模型的深入分析,我们发现未经微调的 BERT 模型竞争传统 NLP 方法的关系知识,可以根据开放式关系进行查询,某些类型的事实知识比标准语言模型预训练方法更容易学习,并可以作为无监督的开放式 QA 系统的潜力展现。
Sep, 2019
本文介绍了一种更具挑战性的基准数据集和方法,用于评估语言模型在无监督知识库补全方面的潜力,并发现了语言模型在补全 Wikidata 中 nativeLanguage、usedLanguage 和 citizenOf 等关系方面表现出强大的泛化能力。
Mar, 2023
该综述着重探讨如何通过训练深度上下文语言模型,在没有人为限制下更灵活地内部化和表达关系知识,对知识表示策略进行分类,提出了高层次的可扩展分类法,并强调了当前语言模型在知识表示方面的能力与未来的研究方向。
Apr, 2021
人类对世界的理解与我们的感知和认知密切相关,其中人类语言作为世界知识的重要承载者之一。本文通过 “知识” 这个视角来探索大型模型,并讨论符号知识如何增强大型语言模型以及大型语言模型如何扩展传统符号知识基础。考虑到人类知识的复杂性,我们倡导创建专门管理多样化知识结构的大型知识模型,并提出了五个 “A” 原则来区分 LKM 的概念。
Dec, 2023
本文论述了预训练语言模型(PLM)的重要性以及知识增强型预训练语言模型(KE-PLMs)的研究现状,探讨了 KE-PLMs 在各种 NLU 和 NLG 应用中的超越性能以及 KE-PLMs 面临的挑战和未来研究方向。
Oct, 2021