关键词multi-hop question answering
搜索结果 - 44
- ACL多跳问题回答中的生成先然后建模的检索增强生成
多跳问题回答 (MHQA) 任务对于大型语言模型 (LLMs) 来说是一项重大挑战。我们提出了一个新颖的生成然后固定 (GenGround) 框架,结合 LLMs 的参数化知识和外部文档,以解决多跳问题。通过在检索的文档中确认问题 - 答案 - 在知识编辑中利用逻辑规则:锦上添花
RULE-KE 是一种新颖的框架,它通过利用规则发现和逻辑规则更新高度相关的事实的知识,来提高知识编辑下面的所有现有 MQA 方法的性能。
- 评价树:基于树结构的动态迭代检索框架对多跳问题回答
使用大型语言模型的知识链式推理能力解决多跳问题回答,引入检索增强的动态检索框架 Tree of Reviews,在多个数据集上实验结果显示比基线方法达到最先进的检索和响应生成性能。
- 多跳问题回答在时间知识编辑下的应用
多跳问题回答(MQA)与知识编辑(KE)相结合的研究引起了广泛关注,然而现有的 MQA 模型在处理带有明确时间背景的问题时性能较差。为了解决这一限制,我们提出了一种新的框架,即 TEMPLE-MQA,通过构建时间感知图(TAG)来有效区分问 - AAAI时间问题回答的问题校准和多跳建模
我们提出了一种新颖的问题校准和多跳建模(QC-MHM)方法,通过融合知识图谱中的问题和时间约束概念来校准问题表示,并借助图神经网络层完成多跳消息传递,最终将问题表示与图神经网络的嵌入输出相结合以生成最终预测。实证结果验证了所提模型在基准数据 - MRKE: 基于知识编辑的 LLMs 的多跳推理评估
利用修改的 HotpotQA 数据集为基础,我们引入了第一个基于新的无与伦比的知识的 LLM 多跳问答评估基准,并注释和评估了形式为子问题和中间答案的推理链,以此促进对 LLM 在多跳问答任务上的可信评估的发展。
- 使用知识图谱直接评估多跳推理中的思路一致性
大型语言模型(LLMs)在生成连贯思路解释时展现出强大的推理能力,然而,之前的研究仅关注于回答的准确性,忽略了生成的连贯思路的正确性。本文通过利用知识图谱(KGs)深入探讨 LLMs 在多跳问题回答中的连贯思路推理能力。我们提出了一种新颖的 - PokeMQA: 可编程的多跳问题回答知识编辑
基于可编程的知识编辑,本研究提出了一种适用于多跳问题回答的框架(PokeMQA),通过解耦任务,使用分离的可训练范围探测器引导大型语言模型(LLMs)对知识增强的多跳问题进行分解,同时根据外部冲突信号调节 LLMs 的行为,从而在 MQA - GNN2R: 弱监督下基于知识图谱的理由提供问答
本文提出了一种基于图神经网络的两步推理模型(GNN2R),可以在只有问题 - 最终答案对的弱监督下高效地提供最终答案和推理子图作为最终答案背后的理由,从而解决了知识图谱中基于多跳问题回答的解释生成问题。该模型在实验中表现出优于现有最先进方法 - EMNLP基于不确定性引导的全局记忆优化多跳问答
我们提出了一种两阶段方法 GEMFormer,首先将相关信息收集到整个文档的内存中,然后与局部上下文相结合来解决多跳问答任务。结果表明,将预训练模型进行微调,使用内存增强输入,包括一些最确定的全局元素,相对于基线在三个多跳问答数据集上提高了 - ACL分治法用于依存关系感知的多跳证据检索
通过考虑多种相关性信号,我们将多跳问题回答的证据检索任务划分为两个子任务:语义文本相似度和推理相似度检索。我们提出了两种集成模型 EAR 和 EARnest,分别处理每个子任务,然后考虑不同的相关性信号对句子进行重新排序。在 HotpotQ - 利用计划评估进行最远推理:检索增强的大型语言模型稳定推理路径
本文提出了一种针对多跳问题回答的新方法,称为 FuRePA,其中包括改进框架(Furthest Reasoning)和附加模块(Plan Assessor)。通过屏蔽之前的推理路径和生成的查询,鼓励 LLM 在每次迭代中从头开始生成思路,从 - 多跳问题的性能预测
我们研究了开放域多跳问题回答中查询性能预测的问题,提出了一种用于预测开放域多跳问题性能的新型预检索方法,通过对最大的多跳问题回答数据集进行广泛评估,我们证明了该模型是一个强大的性能预测器,优于传统的单跳查询性能预测模型,此外,我们展示了该方 - 多跳问答推理图上的单序列预测
我们提出了一种名为 SeqGraph 的方法,该方法通过一个本地推理图中的图形结构来集成关键实体的表示,并将结果表征与模型的实体表示进行融合,以提高 HotpotQA 数据集上的回答准确度和推理路径的合理性。
- MQuAKE: 通过多跳问题评估语言模型中的知识编辑
本文探讨了在大型语言模型中注入新事实的技术,并提出了一个包含多跳问题的基准测试 MQuAKE,旨在评估修改后的模型是否能够正确回答受编辑事实影响的问题。我们提出了一个名为 MeLLo 的基于记忆的方法,存储所有编辑过的事实,并提示语言模型根 - 使用少量数据合成实现高效的开放领域多跳问答
本文提出了一种基于借助少于 10 个人工标注的问题答案对进行改进较小的语言模型的多跳问答数据合成框架,经过句子等数据集测试实验,证明此框架可以显著提高运行效率并具有较好的准确性。
- 搜索锁链:面向复杂知识密集型任务的精确、可信和可追溯的内容生成
本文提出一种称为 Search-in-the-Chain(SearChain)的新框架,旨在通过将信息检索和 LLM 深度整合来提高 LLM 生成答案的准确性、可信性和可追溯性,具体应用于 typ ical complex knowledg - 多重思维链元推理问答
本研究通过 Multi-Chain Reasoning 方法,使用大型语言模型针对多个 chain-of-thought 进行 meta-reasoning,提高多跳问答的性能,并生成高质量的解释,结论基于七个多跳 QA 数据集上的测试表现 - ACL多跳问答中底层推理任务有效性分析
通过分析采用底层推理任务(包括句子级和实体级)对三个方面的影响(1. 问答性能,2. 推理捷径, 3. 鲁棒性),我们建立了一个多任务模型来执行三个任务:句子级支撑事实预测,实体级推理预测和答案预测,实验结果表明底层推理任务可以提高问题回答 - 重新思考多跳问答中的标签平滑
本论文系统分析了标签平滑法在多跳问题回答中的作用,并提出了一种专门为机器阅读理解任务设计的新型标签平滑技术 F1 smoothing,在 HotpotQA 数据集上取得了比复杂注意力机制模型等强基线模型更好的效果,结果表明标签平滑法在多跳问