通过奖励塑造技术增强多跳知识图推理
文中提出了两个方法来解决不完整知识图谱上的多跳推理查询回答中存在的问题,其一是使用预训练的一跳嵌入模型来估算未观察到事实的奖励,其二是使用随机生成的边缘掩码来强制代理探索不同的路径,该方法在多个基准数据集上明显优于现有的基于路径的 KGQA 模型,并且与基于嵌入的模型相当甚至更好。
Aug, 2018
本文提出了一种拓扑感知的、适用于归纳和推理环境下的多模态知识图谱推理方法 TMR,该方法主要由任务感知归纳表示和关系增强自适应强化学习两个组件构成,并在不同规模的归纳推理数据集上进行了评估。实验表明,TMR 在归纳和推理环境下均优于现有的多模态知识图谱推理方法。
Jun, 2023
本文提出了一种名为策略引导路径推理(PGPR)的方法,将推荐和可解释性结合起来,并在知识图中提供实际路径,通过明确的推理过程生成和支持推荐,同时实现了强化学习和策略引导图搜索算法。在多个实际数据集的评估中,与现有的最先进方法相比,获得了良好的结果。
Jun, 2019
在问答领域中,将大型语言模型与外部数据库结合已经取得了巨大的成功。然而,这些方法在提供复杂问答任务所需的高级推理方面常常效果不佳。为了解决这些问题,我们改进了一种称为 “知识图谱提示” 的新方法,该方法结合了知识图谱和基于大型语言模型的代理以提高推理和搜索准确性。然而,原始的知识图谱提示框架需要在大型数据集上进行昂贵的微调,并且仍然存在着大型语言模型幻觉的问题。因此,我们提出了一种注入推理能力的大型语言模型代理来增强该框架。这种代理模仿人类的好奇心来提问后续问题,以更高效地导航搜索。这种简单的改进显著提升了大型语言模型在问答任务中的性能,而无需承担初始 “知识图谱提示” 框架的高成本和延迟。我们的最终目标是进一步发展这种方法,在问答领域提供更准确、更快速、更具成本效益的解决方案。
Apr, 2024
本研究提出了一种名为 MMKGR 的新型模型,其中包含一种统一的门 - 关注网络和一种补充特征感知的强化学习方法,通过有效的多模态补充特征和多次迭代推理,能够更好地实现知识图谱方面的任务,与现有方法相比推理性能更好。
Sep, 2022
LLM-ARK 是一种基于大型语言模型和知识图谱推理的代理技术,通过 FTE 提示和 PPO 在线策略梯度强化学习算法,能够有效地提供多跳推理问题的高效解决方法。
Dec, 2023
本论文提出了一种新颖的知识感知方法,将预训练语言模型与多跳关系推理模块相结合,对外部知识图谱子图进行多跳关系推理。该方法统一了基于路径的推理方法和图神经网络,提高了可解释性和可伸缩性,并在常识问答和开放式书面问答数据集上证明了其有效性和可伸缩性,并通过案例研究进行了解释。
May, 2020
本文提出了一种通过层次强化学习来学习知识增强语言表示的方法,该方法集成了知识图谱中的关系三元组,并通过自监督学习将这些外部数据源整合到语言模型中,以避免注入不准确或不相关的知识,并有效地提升了模型在各种自然语言理解任务上的性能。
Jun, 2024
本文提出了一种基于强化学习的多跳关系路径学习框架,利用知识图谱嵌入、采样方式和奖励函数提高路径推理的精度、多样性和效率,并在 Freebase 和 Never-Ending Language Learning 数据集上展示了其优异性能。
Jul, 2017
利用大型语言模型 (LLMs) 和知识图谱 (KG) 的协作训练方法,本研究在知识图谱的指导下,通过迭代探索和选择性地检索任务相关的知识子图来支持推理,使得 LLMs 能更可靠地进行基于知识的推理,并同时明确阐述推理过程,实验结果表明本方法在多个数据集上显著改进,尤其在 QALD10 数据集上相对于最佳基线和最先进的方法提高了超过 10%,为今后的知识图谱和大型语言模型融合研究提供了有价值的参考,提升 LLMs 在解决复杂问题上的能力。
Feb, 2024