本文提出了两种新的模型,在公开领域问答数据集中取得了最具竞争力的结果。这两种方法是使用多篇文章生成答案。
Nov, 2017
通过使用单个多任务 transformer 模型,我们设计了一个统一的系统,可以迭代地检索支持事实,重新排序它们,并从所有检索的文档中预测答案,从而回答各种需要不同数量的检索步骤的开放领域问题。我们构建了一个新的基准测试 BeerQA,并证明我们的模型在现有基准测试和这个新基准测试上都表现出有竞争力的表现。
Oct, 2020
本文提出了一种统一的 QA 框架,以回答任何跨域问题,包括多步骤文档检索,图形重新排序模型及多文档交互等技术,从而提高检索精度及性能。
Sep, 2020
本文提出了一种基于神经网络和增强学习的新型开放领域问答系统,通过信息检索结合阅读理解模型对大规模语料库进行查询,显著提高了多个数据集的表现。
Aug, 2017
该论文介绍了一种新的开放域问答框架,其中检索器和阅读器相互迭代交互,引入了多步推理机制,有助于从长度为百万级的语料库中检索信息性段落,并应用于不同的问答数据集和模型中均取得了一致性的提升。
May, 2019
本文提出了 ConvADR-QA,该方法在 Open-domain conversational question answering 中使用历史答案来提高文本检索和回答效率。通过引入 teacher-student 框架来减少上一轮的噪声,实验结果表明我们的模型在提取式和生成式读者设置方面均优于现有的基线模型,充分证明了历史答案在开放领域会话问答中的有效性。
Nov, 2022
该研究提出了两个神经网络排序器,用于评分不同段落是否包含特定问题的答案,进一步分析了语义相似性与单词级相关性匹配在开放域 QA 中的相对重要性。
Apr, 2018
提出了一种针对获取增强型开放领域问答系统的端到端可区分训练方法,它结合多个已检索文件的信息来生成答案,通过期望最大化算法的近似计算来建模检索决策,证明了该方法优于现有同类方法,达到了新的最高水平。
Jun, 2021
提出一种新颖的开放领域问答框架,使用中介模块对异构知识源上的单跳 / 多跳问题进行回答。在预训练语言模型的基础上,通过将检索到的证据与其相关的全局上下文链接到图中,并将它们组织成候选证据链,实现了竞争性的性能。在两个 ODQA 数据集 OTT-QA 和 NQ 上,我们的模型显著优于之前最先进的方法,在 OTT-QA 上具有 47.3 的精确匹配分数(相对增益 45%)。
Oct, 2022
我们提出了一种简单而高效的多跳密集检索方法来回答复杂的开放域问题,该方法在两个多跳数据集 HotpotQA 和多证据 FEVER 上实现了最先进的性能。与以前的工作相反,我们的方法不需要访问任何特定于语料库的信息(如文档间超链接或人工注释实体标记),可以应用于任何非结构化文本语料库。与已发布的 HotpotQA 的最佳准确度相匹配,同时在推理时间上快 10 倍,我们的系统也可以产生更好的效率 - 准确性权衡。