大型语言模型指导的时态知识图推理动态适应
我们提出了一个新颖的检索增强生成框架 GenTKG,结合了时间逻辑规则检索策略和轻量级参数效率指导,用于在时间知识图上进行生成性预测,证实了大语言模型在时间知识图领域具有巨大潜力,并开辟了时间知识图生成性预测的新领域。
Oct, 2023
提出一种新颖的生成式时间知识图问答框架(GenTKGQA),通过两个阶段引导 LLMs 回答时间性问题:子图检索和答案生成。在第一个阶段,利用 LLM 的内在知识来挖掘问题中的时间约束和结构链接,从而缩小子图搜索空间。在第二个阶段,设计虚拟知识指示器将子图的图神经网络信号与 LLM 的文本表示非浅层次地融合,帮助开源 LLM 深入理解检索到的事实中的时间顺序和结构依赖关系。实验结果表明,该模型优于最先进的基准方法,甚至对于简单问题类型的指标达到 100%。
Feb, 2024
我们提出了一种新的基于文本的时间推理模型 TempGraph-LLM,通过将上下文翻译成时间图,教导大型语言模型 (LLMs) 学习时间概念。我们证明了在其他任务上的预训练对 LLMs 的效益,并通过思路链的引导和特殊数据增强引导 LLMs 进行符号推理,观察到符号推理带来更一致可靠的结果。
Jan, 2024
基于 LLM 的时态知识图预测模型存在三个缺点,为解决这些问题,我们提出了一种称为 CoH 的历史链推理方法,以实现对高阶历史信息的有效利用,进而增强了基于图模型的 TKG 预测性能。
Feb, 2024
本论文提出了一种理论上基于知识图谱的新方法 —— 图推理(RoG),该方法通过将大型语言模型(LLMs)与知识图谱(KGs)相结合,实现了忠实和可解释的推理,实验结果表明 RoG 在 KG 推理任务上取得了最先进的性能。
Oct, 2023
LLM-ARK 是一种基于大型语言模型和知识图谱推理的代理技术,通过 FTE 提示和 PPO 在线策略梯度强化学习算法,能够有效地提供多跳推理问题的高效解决方法。
Dec, 2023
利用大型语言模型 (LLMs) 和知识图谱 (KG) 的协作训练方法,本研究在知识图谱的指导下,通过迭代探索和选择性地检索任务相关的知识子图来支持推理,使得 LLMs 能更可靠地进行基于知识的推理,并同时明确阐述推理过程,实验结果表明本方法在多个数据集上显著改进,尤其在 QALD10 数据集上相对于最佳基线和最先进的方法提高了超过 10%,为今后的知识图谱和大型语言模型融合研究提供了有价值的参考,提升 LLMs 在解决复杂问题上的能力。
Feb, 2024
提出了一种基于注意力机制的自适应强化学习模型 (DREAM),该模型可有效进行缺失元素预测和多跳推理,并展现了其在公开数据集上的卓越性能。
Apr, 2023
通过在知识图谱(KG)上选择推理路径并结合思维链(CoT)和 PageRank 的子图检索方法,本文整合和优化了一个基于大型语言模型(LLM)的管道,可以减少对 LLM 的依赖。最终,RoK 证明了使用较少的 LLM 调用可以达到相同的结果。
Apr, 2024