该论文回顾了使用知识图谱增强的预训练模型的研究,详细介绍了现有的知识图谱增强预训练语言模型(KGPLMs)及其应用,并提出了基于知识图谱增强的大型语言模型(KGLLM)的思想以增强 LLM 的面向事实的推理能力,为 LLM 的研究开辟了新的途径。
Jun, 2023
通过与用户与搜索引擎的交互历史相关的上下文,我们提出了一种新颖且通用的方法,用于个性化输出,这对于理解用户当前的搜索背景以及他们历史上知道和关心的内容是必要的。我们验证了我们的方法在上下文查询建议的任务上优于几个其他 LLM 基准方法,生成了在上下文中更相关、个性化和有用的查询建议。
Nov, 2023
使用知识感知微调(KnowTuning)方法解决大型语言模型在自然语言处理任务中的知识感知不足问题,并在通用和医疗问答数据集上进行了广泛的实验证明了其有效性,并展示了其在未知问答数据集上的泛化能力。
Feb, 2024
大型语言模型在各种自然语言处理任务中表现出色,但在处理需要广泛、现实世界知识的任务,特别是那些涉及长尾实体的任务时,仍然存在困难。为了解决这个问题,本研究分析了不同类型的非参数化知识对语言模型的影响,其中包括文本片段和知识图谱。通过创建一个需要长尾事实知识来回答问题的基准测试工具,我们评估了最先进的语言模型在不同知识环境下的表现。实验结果表明,单独使用语言模型来回答这些问题存在困难,特别是在需要大量长尾知识或丰富知识的情况下。然而,当为语言模型提供非参数化知识时,这些模型的性能显著提高。我们观察到,在大多数情况下,使用知识图谱三元组作为提示的语言模型表现优于使用最先进的检索器的段落提示。此外,虽然同时为语言模型提供知识图谱三元组和文档并不能始终改善知识覆盖率,但可以显著减少生成内容中的幻觉。
May, 2024
使用来自知识图谱的规划数据,我们介绍了一种增强大型语言模型在复杂问答任务中的性能的新框架,通过使用这些数据对 LLMs 进行微调,提高其规划能力,更好地处理涉及检索的复杂 QA 任务。我们的框架在多个数据集上进行评估,包括我们提出的新基准,突出了其有效性和知识图谱派生规划数据的好处。
Jun, 2024
通过指导式知识迁移,我们引入了一种新颖而直观的框架来加速大型语言模型,在不断提高性能的同时保证了效率和实惠性。该框架能够无需微调,无需教师和学生模型具有相同的词汇,实现广泛的批量生成,且可轻松集成到各种模型中,同时在准确性和处理速度上实现了显著的提升。
通过将大型语言模型与知识库相结合,KnowledGPT 能够更好地回答涉及世界知识的更广泛问题,利用广为人知的知识库和个性化知识库中的知识。
Aug, 2023
提出了一个称为 KELP 的基于知识图谱的大型语言模型的框架来解决幻觉问题,通过生成与输入文本的潜在语义匹配程度评分,实现对知识路径的精细提取,同时通过已训练的编码器考虑与输入文本间具有间接语义关系的知识路径。实验验证了 KELP 的有效性。
本论文提出了 Parametric Knowledge Guiding(PKG)框架,使 LLMs 具有在运行时访问相关知识的能力,从而在适应长尾或特定领域任务方面提高性能,并同时考虑了透明度和数据隐私的问题。
May, 2023
本文分析了当前基础 LLM (ChatGPT) 与专门的预训练模型 (REBEL) 的联合实体和关系提取应用,以可持续发展文本为案例进行了多个实验,结果表明,使用先进的 LLM 模型可以提高从非结构化文本创建知识图谱的过程的准确性,并探索了使用基础 LLM 模型自动创建本体论的潜力,取得更相关和准确的知识图谱。