通过问题分解实现复杂阅读理解
该研究通过将复杂问题分解为多个单一问题并利用单一问题回答模型回答得出答案,提出了一种多跳阅读理解系统,并提出了一种新的全局重新打分方法,大大提升了系统准确度。
Jun, 2019
在多次阅读和推理的问题中,通过 HotpotQA 我们证明单次推理可以解决比之前认为的更多的数据集并且设计了一个基于 BERT 的单次推理 RC 模型,达到了 67 个 F1 值,在多次推理的错误分析中这些结果提示我们应该更加注重证据在多次推理中的作用,可能甚至转向信息检索风格评估大而多样的证据收集。
Jun, 2019
本文提出了一种基于抽象意义表征的问题分解方法,通过将多跳问题分解成简单的子问题并按顺序回答它们,实现了可解释的推理过程。实验结果表明,这种方法在可解释的推理方面具有竞争力,并且由 QDAMR 生成的子问题形式良好,优于现有的基于问题分解的多跳 QA 方法。
Jun, 2022
本文提出了一个解释性逐步推理框架,将单跳支持句子识别和单跳问题生成结合起来,并利用当前跳的推理来推导出最终结果。我们使用一个统一的读者模型进行中间跳推理和最终跳推理,并采用联合优化来实现更精确和稳健的多跳推理,取得了良好的实验效果。
Aug, 2022
本文提出了一种新的 CogQA 框架,用于在 Web 规模文件中进行多跳问题回答。该框架通过协调隐式提取模块(系统 1)和显式推理模块(系统 2)逐步构建认知图。我们的实现基于 BERT 和图神经网络,可高效地处理 HotpotQA fullwiki 数据集中的数百万文档,从而实现在榜单上的胜利。
May, 2019
本论文探讨了利用多跳问题分解来探究神经问答模型的解释性,通过人类实验证明这种方法可以提高用户预测系统在某个问题实例上的性能,并且可以用来改进问答系统。
Apr, 2022
本研究提出了基于复杂问题分解的三阶段框架 Relation Extractor-Reader and Comparator (RERC) 用于解决多跳 QA 的挑战,其模型在 2WikiMultiHopQA 数据集上取得了 53.58 的冠军联合 F1 评分,与人类表现接近。
Oct, 2021
本文提出了一种基于问题生成的新型多跳问答方法,通过精心设计端到端的 QG 模块,在上下文理解中提出内在逻辑子问题,从而继承了 QD 方法的可解释性并表现出较高的性能。实验证明,我们提出的 QG 模块是有效的,在流畅性、一致性和多样性方面优于 QD 方法,并获得了人工评估的定量可解释性。
Mar, 2022
通过引入 “分解和查询”(D&Q) 框架,使得大规模语言模型在回答问题时能够避免幻觉,通过引导模型思考并利用外部知识,同时限制其思考范围在可靠信息内,从而有效减轻了幻觉的风险。实验证实了 D&Q 的有效性:在我们的 ChitChatQA 数据集上,D&Q 在 67%的情况下不输给 ChatGPT;在 HotPotQA 的仅问题设置下,D&Q 获得了 59.6%的 F1 得分。我们的代码可在此 https URL 找到。
Nov, 2023
本文提出了一种新的多跳问题回答模型架构,通过应用 CGDe 和 FGIn 两种策略,在 SQuAD 和 HotpotQA 数据集上表现出超越 state-of-the-art 基线的性能。
Jan, 2021