本文提出了使用知识图谱和大型语言模型的三种框架,分别为增强了的知识图谱、增强了的大型语言模型和协同增强。这三个框架能够互相协作,实现双向推理,提高自然语言处理和人工智能的表现,同时指出未来的研究方向。
Jun, 2023
人类对世界的理解与我们的感知和认知密切相关,其中人类语言作为世界知识的重要承载者之一。本文通过 “知识” 这个视角来探索大型模型,并讨论符号知识如何增强大型语言模型以及大型语言模型如何扩展传统符号知识基础。考虑到人类知识的复杂性,我们倡导创建专门管理多样化知识结构的大型知识模型,并提出了五个 “A” 原则来区分 LKM 的概念。
Dec, 2023
本研究调查了大型语言模型(LLMs)与知识图谱(KGs)之间的协同关系,旨在探讨 KG 问答、本体生成、KG 验证以及通过 LLMs 提高 KG 准确性和一致性等领域的研究空白。该论文还检验了 LLMs 在生成描述性文本和自然语言查询方面的作用,并通过分类 LLM-KG 交互、研究方法论和合作使用以及潜在偏见等结构化分析,提供了它们的结合潜力的新见解。该研究强调了它们的交互对于提升人工智能应用的重要性,并概述了未来的研究方向。
Jun, 2024
图形语言模型(GLM)集成了线性文本模型(LM)和图神经网络(GNN)的优点,同时减轻它们的弱点,在有监督和零样本情况下,在概念网络的关系分类任务上超过了基于 LM 和 GNN 的基线。
Jan, 2024
大型语言模型在知识表示领域和全球范围内席卷而来,这标志着从显式知识表示转向对显式知识和参数化知识的混合表示的全新关注点。本位置论文将讨论在 LLMs(参数化知识)和知识图谱(显式知识)社区内的一些常见争议点,并推测这种新关注点带来的机遇和愿景,以及相关的研究主题和挑战。
Aug, 2023
我们通过复杂问题回答作为任务,对比了不同的知识图谱注入方法,旨在探索最佳提供知识图谱给大型语言模型的提示方法,从而增强其对知识图谱的理解能力。与预期相反,我们的分析发现,大型语言模型能够有效处理混乱、噪音和线性化的知识图谱知识,并且表现优于使用设计良好的自然语言文本提示的方法。这一反直觉的发现为未来关于大型语言模型理解结构化知识的研究提供了重要见解。
Feb, 2024
鉴于知识图谱,以多跳问题为基础评估语言模型在知识图谱中的问答能力,展示了基于信息检索和语义解析的方法能够具有竞争力的性能。
Apr, 2024
本研究通过建立图格式的知识图谱,对自注意力转换器编码的语义进行了评估,发现语言模型不会赋予学习到的随机模式以物体和概念级别的含义和语义,同时构建了一个 GLUE 基准的增强语言理解基准,以使语言模型的概念理解得到健壮的评估。
May, 2023
本文提出了一种基于预训练语言模型的自动化知识图谱构建框架,仅以关系的最小定义为输入,利用多样的新设计提示,可以在一个给定的语言模型内进行高效的知识搜索,从而收获更具竞争力、多样性和创新性的知识,生成了一系列但不仅限于 BertNet 和 RoBERTaNet 含有更多包括一些复杂关系的符号知识图谱,并进一步用于解释不同语言模型之间的知识能力差异。
Jun, 2022
大型语言模型在知识图谱工程方面的性能评估和监控是一个重要问题,我们引入了一个基于知识图谱工程的基准评测框架,涵盖了语法和纠错、事实抽取以及数据集生成三个挑战。通过实验证明,尽管具有一定的实用性,大型语言模型在零样本生成知识图谱方面尚不适用。因此,我们的 LLM-KG-Bench 框架提供了 LLM 响应的自动评估和存储机制,以及统计数据和可视化工具,以支持指导数据和模型性能的追踪。