长尾实体的知识库补全
大型语言模型在各种自然语言处理任务中表现出色,但在处理需要广泛、现实世界知识的任务,特别是那些涉及长尾实体的任务时,仍然存在困难。为了解决这个问题,本研究分析了不同类型的非参数化知识对语言模型的影响,其中包括文本片段和知识图谱。通过创建一个需要长尾事实知识来回答问题的基准测试工具,我们评估了最先进的语言模型在不同知识环境下的表现。实验结果表明,单独使用语言模型来回答这些问题存在困难,特别是在需要大量长尾知识或丰富知识的情况下。然而,当为语言模型提供非参数化知识时,这些模型的性能显著提高。我们观察到,在大多数情况下,使用知识图谱三元组作为提示的语言模型表现优于使用最先进的检索器的段落提示。此外,虽然同时为语言模型提供知识图谱三元组和文档并不能始终改善知识覆盖率,但可以显著减少生成内容中的幻觉。
May, 2024
本文介绍了一种更具挑战性的基准数据集和方法,用于评估语言模型在无监督知识库补全方面的潜力,并发现了语言模型在补全 Wikidata 中 nativeLanguage、usedLanguage 和 citizenOf 等关系方面表现出强大的泛化能力。
Mar, 2023
通过预训练大型语言模型解决普适领域问答中的常见知识和罕见长尾知识学习难题,我们提出了一种自动生成专门用于长尾知识的问答数据集的自动方法,并展示了相关的研究挑战。通过预训练语言模型,在我们新生成的长尾问答数据集上进行了详尽实验,比较了其使用维基百科和维基数据知识图等外部资源的性能。
Mar, 2024
本文研究了大型语言模型记忆的知识与其预训练数据中信息之间的关系,结果发现语言模型回答基于事实的问题的能力与预训练期间看到的相关问题文档数量有强相关性和因果关系;同时,该研究发现,虽然更大的模型能学习更长尾的知识,但需要将模型规模增加数个数量级才能在缺乏支持数据的问题上实现具有竞争性的问答表现。最后,对相关文档数量依赖进行检索增强,能够有效捕捉长尾知识。
Nov, 2022
结构化知识库与语言模型的能力评估,发现 GPT-3 等模型可用于在大规模公开知识库 Wikidata 上进行知识补全,提高精度并增加了 2700 万条事实。
Oct, 2023
在本研究中,我们探索了利用大型语言模型(LLM)来完成知识图的关键问题。通过将知识图中的三元组视为文本序列,并引入名为 Knowledge Graph LLM(KG-LLM)的创新框架来对这些三元组进行建模。我们的技术利用三元组的实体和关系描述作为提示,并利用生成的响应进行预测。在各种基准知识图上的实验证明,我们的方法在三元组分类和关系预测等任务中达到了最先进的性能水平。我们还发现,微调相对较小的模型(例如 LLaMA-7B,ChatGLM-6B)优于最新的 ChatGPT 和 GPT-4。
Aug, 2023
使用大型语言模型(LLMs)进行知识工程任务(ISWC 2023 LM-KBC 挑战中),通过预训练的 LLMs 生成相关的字符串格式对象,并将其与相应的 Wikidata QIDs 进行关联,证明了 LLMs 在自动知识库(例如 Wikidata)完成和纠正方面具有潜在的贡献。
Sep, 2023
通过 Head-to-Tail 基准测试,我们评估了 14 个公开可用的大型语言模型在掌握事实性知识方面的表现,发现现有的大型语言模型在掌握中间到较不常见的实体的事实方面仍有很大的改进空间。
Aug, 2023
使用大型语言模型构建知识库的 LLM2KB 系统有不同于基础模型的参数紧凑的注入模型,通过 LoRA 技术调整指令以便使用 Wikipedia 页面上下文实体,并在 LM-KBC 挑战中取得了 0.6185 的平均 F1 得分。
Aug, 2023