大型语言模型作为事件预测器
我们提出了一个新颖的检索增强生成框架 GenTKG,结合了时间逻辑规则检索策略和轻量级参数效率指导,用于在时间知识图上进行生成性预测,证实了大语言模型在时间知识图领域具有巨大潜力,并开辟了时间知识图生成性预测的新领域。
Oct, 2023
本文研究利用大型语言模型和上下文学习技术进行时间知识图谱(TKG)预测,并证明可在不需要显式重点捕获结构和时态信息的情况下,LLM 与针对 TKG 预测深度设计和训练的最先进的 TKG 模型表现相当,而且本文发现使用数值索引而非实体 / 关系名称可以实现接近相同的性能,且证明上下文学习可以帮助 LLMs 学习历史上不规律的模式,从而超越基于共同或最新信息的简单预测。
May, 2023
提出一种新颖的生成式时间知识图问答框架(GenTKGQA),通过两个阶段引导 LLMs 回答时间性问题:子图检索和答案生成。在第一个阶段,利用 LLM 的内在知识来挖掘问题中的时间约束和结构链接,从而缩小子图搜索空间。在第二个阶段,设计虚拟知识指示器将子图的图神经网络信号与 LLM 的文本表示非浅层次地融合,帮助开源 LLM 深入理解检索到的事实中的时间顺序和结构依赖关系。实验结果表明,该模型优于最先进的基准方法,甚至对于简单问题类型的指标达到 100%。
Feb, 2024
在本研究中,我们探索了利用大型语言模型(LLM)来完成知识图的关键问题。通过将知识图中的三元组视为文本序列,并引入名为 Knowledge Graph LLM(KG-LLM)的创新框架来对这些三元组进行建模。我们的技术利用三元组的实体和关系描述作为提示,并利用生成的响应进行预测。在各种基准知识图上的实验证明,我们的方法在三元组分类和关系预测等任务中达到了最先进的性能水平。我们还发现,微调相对较小的模型(例如 LLaMA-7B,ChatGLM-6B)优于最新的 ChatGPT 和 GPT-4。
Aug, 2023
本论文提出了一种新颖的方法,将时间链接预测视为历史事件链中的事件生成任务,并通过有效的微调方法将 LLMs 适应特定的图文本信息和时间线中发现的模式。此外,我们引入了基于结构的历史数据增强和逆向知识的整合,以强调 LLMs 对结构信息的认知,从而提高其推理能力。通过在多个广泛使用的数据集上进行彻底的实验,我们发现我们的微调模型在多个度量标准上优于现有的基于嵌入的模型,达到了最先进水平,并进行了充分的消融实验,探索 LLMs 在执行结构化时间知识推断任务时的关键影响因素。
Jan, 2024
通过将知识图谱关系的文本描述输入到大型语言模型中,我们提出了一种新的方法以解决传统知识图谱预测中的无先验图谱上下文的零样本关系建模问题,并通过引入大型语言模型增强的关系表示,使传统模型能够识别没有观察到的关系,在预测未知关系方面取得更好的性能。
Nov, 2023
基于 LLM 的时态知识图预测模型存在三个缺点,为解决这些问题,我们提出了一种称为 CoH 的历史链推理方法,以实现对高阶历史信息的有效利用,进而增强了基于图模型的 TKG 预测性能。
Feb, 2024
我们提出了一种名为 TEMT 的新框架,利用预训练语言模型(PLMs)来增强文本的时间性知识图谱完成。TEMT 利用存储在 PLM 参数中的知识,能够产生丰富的事实语义表示,并且对以前未见过的实体进行推广。TEMT 将 KG 中的文本和时间信息分别处理,并将它们融合以得到事实的可信度得分。与以前的方法不同,TEMT 有效捕获不同时间点之间的依赖关系,并能对未见实体进行预测。实验结果表明,TEMT 与现有技术相媲美。
Sep, 2023