提出一种新颖的生成式时间知识图问答框架(GenTKGQA),通过两个阶段引导 LLMs 回答时间性问题:子图检索和答案生成。在第一个阶段,利用 LLM 的内在知识来挖掘问题中的时间约束和结构链接,从而缩小子图搜索空间。在第二个阶段,设计虚拟知识指示器将子图的图神经网络信号与 LLM 的文本表示非浅层次地融合,帮助开源 LLM 深入理解检索到的事实中的时间顺序和结构依赖关系。实验结果表明,该模型优于最先进的基准方法,甚至对于简单问题类型的指标达到 100%。
Feb, 2024
通过将知识图谱关系的文本描述输入到大型语言模型中,我们提出了一种新的方法以解决传统知识图谱预测中的无先验图谱上下文的零样本关系建模问题,并通过引入大型语言模型增强的关系表示,使传统模型能够识别没有观察到的关系,在预测未知关系方面取得更好的性能。
Nov, 2023
基于 LLM 的时态知识图预测模型存在三个缺点,为解决这些问题,我们提出了一种称为 CoH 的历史链推理方法,以实现对高阶历史信息的有效利用,进而增强了基于图模型的 TKG 预测性能。
通过提出一种基于大语言模型的动态适应方法,本文研究了时间知识图谱推理中的若干挑战,包括解释性问题和适应性问题,并通过实验验证了这种方法在提高时间知识图谱推理准确性方面的有效性。
May, 2024
本文研究利用大型语言模型和上下文学习技术进行时间知识图谱(TKG)预测,并证明可在不需要显式重点捕获结构和时态信息的情况下,LLM 与针对 TKG 预测深度设计和训练的最先进的 TKG 模型表现相当,而且本文发现使用数值索引而非实体 / 关系名称可以实现接近相同的性能,且证明上下文学习可以帮助 LLMs 学习历史上不规律的模式,从而超越基于共同或最新信息的简单预测。
May, 2023
本论文提出了一种新颖的方法,将时间链接预测视为历史事件链中的事件生成任务,并通过有效的微调方法将 LLMs 适应特定的图文本信息和时间线中发现的模式。此外,我们引入了基于结构的历史数据增强和逆向知识的整合,以强调 LLMs 对结构信息的认知,从而提高其推理能力。通过在多个广泛使用的数据集上进行彻底的实验,我们发现我们的微调模型在多个度量标准上优于现有的基于嵌入的模型,达到了最先进水平,并进行了充分的消融实验,探索 LLMs 在执行结构化时间知识推断任务时的关键影响因素。
Jan, 2024
通过使用大型语言模型,本文研究了如何在维持竞争性准确率的同时,简化时态知识图谱学习框架的设计,通过使用指令微调适合编码器 - 解码器生成式语言模型进行对象预测,并设计了简单而有效的提示模板,用于每个 TKG 五元组的多事件预测。实验结果表明,此方法具有有效性和鲁棒性。
Jun, 2024
本文提出了一种新的任务:在时间知识图谱上进行预测问答,同时还提出了一个大规模 TKGQA 基准数据集 ForecastTKGQuestions,用于评估 QA 模型。最终提出 ForecastTKGQA 模型来回答三种类型的问题,实验结果表明它的表现优于最新的 TKGQA 方法。
Aug, 2022
本文提出了一种基于强化学习的方法来进行时态知识图推理,该方法解决了建模未来时间信息以及处理先前未见实体的归纳推理的问题,通过在历史知识图上搜索答案,设计了相对时间编码函数以及基于 Dirichlet 分布的时间 - shaped 奖励机制,并提出了一种新颖的表示方法来提高模型的归纳推理能力,在四个基准数据集上获得了较大的性能改进。
Sep, 2021
本文介绍了一种基于元学习的时间知识图谱外推模型(MTKGE),该模型在已知时间知识图谱中进行链接预测任务的元训练,并在具有未知实体和关系的新兴时间知识图谱中进行测试。通过捕获关系的相对位置模式和时间序列模式的 GNN 框架,学习模式的嵌入可以转移到未知组件。实验结果表明 MTKGE 模型在两个不同的时间知识图谱外推数据集上均优于现有的知识图谱外推和特定自适应 KGE 和 TKGE 基线的最新模型。
Feb, 2023