通过问题分解和重评分的多跳阅读理解
提出了一种通过可训练的问题分解器将多跳阅读理解问题分解为多个子问题,再利用序列到序列的阅读理解模型预测答案的学习方法,能够使语言模型更好地理解复杂的、组合性的多跳问题,并在 DROP 数据集的一难子集上比基线模型分别提高了 7.2 / 6.1 绝对 F1 点。
Nov, 2022
在多次阅读和推理的问题中,通过 HotpotQA 我们证明单次推理可以解决比之前认为的更多的数据集并且设计了一个基于 BERT 的单次推理 RC 模型,达到了 67 个 F1 值,在多次推理的错误分析中这些结果提示我们应该更加注重证据在多次推理中的作用,可能甚至转向信息检索风格评估大而多样的证据收集。
Jun, 2019
本文提出了一种基于抽象意义表征的问题分解方法,通过将多跳问题分解成简单的子问题并按顺序回答它们,实现了可解释的推理过程。实验结果表明,这种方法在可解释的推理方面具有竞争力,并且由 QDAMR 生成的子问题形式良好,优于现有的基于问题分解的多跳 QA 方法。
Jun, 2022
提出了一种基于抽象化的方法来生成问题相关的简明解释,该方法通过半监督的学习方式训练模型,使用一种关注简洁性的奖励函数来获得更为紧凑的解释。实验证明,在有限的监督下,提出的抽象化解释器生成的解释比传统的摘要解释器更为简洁。
Sep, 2021
本文提出了一种名为异构文档 - 实体图(HDE)的图形结构,并使用基于图神经网络的消息传递算法在 HDE 图上进行推理,以解决多跳阅读理解问题。实现了单个 HDE 模型的有竞争力的结果和集合模型的最先进性能.
May, 2019
本研究提出了基于复杂问题分解的三阶段框架 Relation Extractor-Reader and Comparator (RERC) 用于解决多跳 QA 的挑战,其模型在 2WikiMultiHopQA 数据集上取得了 53.58 的冠军联合 F1 评分,与人类表现接近。
Oct, 2021
本论文探讨了利用多跳问题分解来探究神经问答模型的解释性,通过人类实验证明这种方法可以提高用户预测系统在某个问题实例上的性能,并且可以用来改进问答系统。
Apr, 2022
本文提出了一个解释性逐步推理框架,将单跳支持句子识别和单跳问题生成结合起来,并利用当前跳的推理来推导出最终结果。我们使用一个统一的读者模型进行中间跳推理和最终跳推理,并采用联合优化来实现更精确和稳健的多跳推理,取得了良好的实验效果。
Aug, 2022
本文提出了一种基于问题生成的新型多跳问答方法,通过精心设计端到端的 QG 模块,在上下文理解中提出内在逻辑子问题,从而继承了 QD 方法的可解释性并表现出较高的性能。实验证明,我们提出的 QG 模块是有效的,在流畅性、一致性和多样性方面优于 QD 方法,并获得了人工评估的定量可解释性。
Mar, 2022
本文提出了一种新的 CogQA 框架,用于在 Web 规模文件中进行多跳问题回答。该框架通过协调隐式提取模块(系统 1)和显式推理模块(系统 2)逐步构建认知图。我们的实现基于 BERT 和图神经网络,可高效地处理 HotpotQA fullwiki 数据集中的数百万文档,从而实现在榜单上的胜利。
May, 2019