语言模型在规模上是否能充当知识库?
本文回顾了最近关于使用预先训练的自然语言处理语言模型作为知识库的文献,提出了应该具备的一些方面,探讨了这种方法相较于传统知识库的优势在于无需人工监督进行的无监督学习。
Apr, 2022
人类对世界的理解与我们的感知和认知密切相关,其中人类语言作为世界知识的重要承载者之一。本文通过 “知识” 这个视角来探索大型模型,并讨论符号知识如何增强大型语言模型以及大型语言模型如何扩展传统符号知识基础。考虑到人类知识的复杂性,我们倡导创建专门管理多样化知识结构的大型知识模型,并提出了五个 “A” 原则来区分 LKM 的概念。
Dec, 2023
使用大型语言模型构建知识库的 LLM2KB 系统有不同于基础模型的参数紧凑的注入模型,通过 LoRA 技术调整指令以便使用 Wikipedia 页面上下文实体,并在 LM-KBC 挑战中取得了 0.6185 的平均 F1 得分。
Aug, 2023
大型语言模型可用于定量信息检索,以帮助数据分析任务,如贝叶斯模型的先验分布以及缺失数据的插补。我们提出了一个提示工程框架,将大型语言模型视为科学文献的潜在空间界面,并与其他已建立的方法进行比较。同时讨论了使用大型语言模型作为 “专家” 的影响和挑战。
Feb, 2024
本研究探讨基于预训练语言模型作为知识库的 Paradigm,提出两个基本要求:存储大量涉及大量实体的事实和查询存储的事实的能力,并探索了三种实体表示法,提供了一个实证,证明语言模型确实可以作为知识库。
Aug, 2020
大型语言模型在知识提取、推理和对话方面显示出与人类相似的表现,但是它们的表现究竟是通过记忆和模式匹配来解释的,还是反映了人类般的推理语义和世界知识,存在争议。本文展示了大型语言模型学习以类似于知识库的方式组织概念,这些知识库提供了推理语义和世界知识的大规模高质量表征。大型语言模型似乎从原始文本中引出这种知识,而更大更好的模型表现出更符合人类的概念组织,涵盖了四个系列的语言模型和三个知识图谱嵌入。
Aug, 2023
大型语言模型能够部分地记忆本体论概念,并且记忆程度与概念在网络上的普及程度成正比。本研究还提出了新的度量方法,通过测量在不同提示重复、查询语言和确定性程度下产生的输出的一致性来估计语言模型中本体论信息的记忆程度。
Jan, 2024
我们通过复杂问题回答作为任务,对比了不同的知识图谱注入方法,旨在探索最佳提供知识图谱给大型语言模型的提示方法,从而增强其对知识图谱的理解能力。与预期相反,我们的分析发现,大型语言模型能够有效处理混乱、噪音和线性化的知识图谱知识,并且表现优于使用设计良好的自然语言文本提示的方法。这一反直觉的发现为未来关于大型语言模型理解结构化知识的研究提供了重要见解。
Feb, 2024
本研究旨在探讨结构化数据如知识图谱和文本等对大语言模型(LLMs)内部化知识的差异,提出了一种将结构化知识注入 LLMs 的方法,并通过在不同知识图谱数据上的预训练和多个自然语言任务的性能比较,证明了该方法的有效性。
May, 2022