多跳问答的语义句子组合推理
本文介绍了一个多个文本片段组合的重要性,以及如何使用 QASC 数据集进行多跳推理问题的解答。该数据集提供了用于文本检索的事实,并且必须使用常识推理来确定这些不同的事实如何有机组合在一起才能回答多选题。通过提供编码支持事实及其组成,本文提出了一种两步方法来缓解检索挑战,并使用其他多选题数据集作为额外的训练数据来加强推理模型,最终使模型的性能得到 11%(绝对值)的提升,但推理和检索问题仍未得到解决,模型落后于人类表现 20%。
Oct, 2019
提出一种基于抽象意义表示(AMR)的语义图构建方法及推理模型,能够有效地检索更多有效的知识事实以填补知识空白,并在多次推理过程中提高推理透明度。该模型在两个科学多次问答数据集中得到了最新成果,包括那些使用附加知识图谱的方法,在保持 OpenBookQA 高可解释性的同时,实现了 ARC-Challenge 新的最佳结果。
May, 2021
通过提出一种选择基于概念网络的常识信息和一种选择性门控的多头注意力机制,本文提出了一种生成式模型,用于解决阅读理解 QA 任务中的多跳关系抽取问题,并在 NarrativeQA 数据集上创造新的最先进结果。
Sep, 2018
本文提出了一种新的 CogQA 框架,用于在 Web 规模文件中进行多跳问题回答。该框架通过协调隐式提取模块(系统 1)和显式推理模块(系统 2)逐步构建认知图。我们的实现基于 BERT 和图神经网络,可高效地处理 HotpotQA fullwiki 数据集中的数百万文档,从而实现在榜单上的胜利。
May, 2019
本文提出了一种方法,用于在大量知识库之中检索多个支持段落,以回答所提出的问题。该方法使用联合向量表示形式,并考虑知识源中段落的上下文句子表示形式。该技术在 SQuAD-Open 和 HotpotQA 的数据集上实现了开放域问答的最新成果。
Jun, 2019
通过评估来自三个自由文本语料库的知识图构建的通过词汇重叠连接的句子的机会聚合质量的 9,784 个手动注释的判断,我们实证表征了构建或遍历图形的困难,表明语义漂移倾向于很高并且聚合质量很低,高亮最大化有意义地组合信息的情况。
May, 2018
在多次阅读和推理的问题中,通过 HotpotQA 我们证明单次推理可以解决比之前认为的更多的数据集并且设计了一个基于 BERT 的单次推理 RC 模型,达到了 67 个 F1 值,在多次推理的错误分析中这些结果提示我们应该更加注重证据在多次推理中的作用,可能甚至转向信息检索风格评估大而多样的证据收集。
Jun, 2019
本文提出了一个解释性逐步推理框架,将单跳支持句子识别和单跳问题生成结合起来,并利用当前跳的推理来推导出最终结果。我们使用一个统一的读者模型进行中间跳推理和最终跳推理,并采用联合优化来实现更精确和稳健的多跳推理,取得了良好的实验效果。
Aug, 2022
该论文提出了一种在多步问题回答中维护显式推理过程的方法。该方法提取一个离散的推理链,并将其提供给一个基于 BERT 的 QA 模型来进行最终答案预测。我们的方法在两个近期提出的大型多跳问题回答数据集 ——WikiHop 和 HotpotQA 上进行了测试,并取得了令人瞩目的成果。
Oct, 2019
本文提出了一个能够改进问题生成中的关键词生成和全局问题语义缺失问题的神经问题生成模型,并且利用了句子级别的语义匹配和答案位置推断功能,并运用了基于答案感知的门控融合机制来增强解码器的初始状态,结果表明我们的模型在 SQuAD 和 MARCO 数据集上领先于现有的最先进模型,同时还对现有模型进行了显著改进。
Dec, 2019