使用软提示和随机游走触发语言模型中的多跳推理以进行问答
该论文提出了一种在多步问题回答中维护显式推理过程的方法。该方法提取一个离散的推理链,并将其提供给一个基于 BERT 的 QA 模型来进行最终答案预测。我们的方法在两个近期提出的大型多跳问题回答数据集 ——WikiHop 和 HotpotQA 上进行了测试,并取得了令人瞩目的成果。
Oct, 2019
构建和利用语义结构的多跳问题回答框架,通过神经模型和连续思维机制提高推理能力,并结合信息抽取和提取的语义结构实现更准确和可解释的问题回答。
Nov, 2023
本文提出了一种基于借助少于 10 个人工标注的问题答案对进行改进较小的语言模型的多跳问答数据合成框架,经过句子等数据集测试实验,证明此框架可以显著提高运行效率并具有较好的准确性。
May, 2023
介绍了一种基于图形的循环检索方法,学习在 Wikipedia 图形上检索推理路径来回答多跳开放域问答问题。该方法在三个开放域 QA 数据集上实现了最新技术成果,特别是在 HotpotQA 中表现出显著的改进,超过了以前最好的模型 14 个百分点以上。
Nov, 2019
本文提出了一个复杂的时间问答(QA)数据集 Complex-TR,重点关注多答案和多跳的时间推理,并提出了一种新颖的数据增强策略来改善大型语言模型(LLMs)的复杂时间推理能力和鲁棒性。实验证明,我们的方法能够显著提高 LLMs 在时间 QA 基准测试上的性能。
Nov, 2023
本文提出了 Prompt-based Conservation Learning (PCL) 框架,提供支持证据不足以证明模型已完成所需推理以获得正确答案。通过在单跳 QA 任务上训练模型并为多跳 QA 任务分配额外的子网络,PCL 获得了新的知识并在保留旧知识的同时减轻了遗忘。实验结果表明,PCL 在多跳 QA 方面具有竞争力,并保留了相应的单跳子问题的良好性能。
Sep, 2022
本论文提出了一种新颖的知识感知方法,将预训练语言模型与多跳关系推理模块相结合,对外部知识图谱子图进行多跳关系推理。该方法统一了基于路径的推理方法和图神经网络,提高了可解释性和可伸缩性,并在常识问答和开放式书面问答数据集上证明了其有效性和可伸缩性,并通过案例研究进行了解释。
May, 2020
在问答领域中,将大型语言模型与外部数据库结合已经取得了巨大的成功。然而,这些方法在提供复杂问答任务所需的高级推理方面常常效果不佳。为了解决这些问题,我们改进了一种称为 “知识图谱提示” 的新方法,该方法结合了知识图谱和基于大型语言模型的代理以提高推理和搜索准确性。然而,原始的知识图谱提示框架需要在大型数据集上进行昂贵的微调,并且仍然存在着大型语言模型幻觉的问题。因此,我们提出了一种注入推理能力的大型语言模型代理来增强该框架。这种代理模仿人类的好奇心来提问后续问题,以更高效地导航搜索。这种简单的改进显著提升了大型语言模型在问答任务中的性能,而无需承担初始 “知识图谱提示” 框架的高成本和延迟。我们的最终目标是进一步发展这种方法,在问答领域提供更准确、更快速、更具成本效益的解决方案。
Apr, 2024