面向开放域问答的多跳段落检索
本文提出一种新的方法,将段落建模为序列数据,并将多跳信息检索视为一种序列标记任务,从而解决传统基于图的方法存在的固有缺陷,并通过引入外部可重写记忆和阈值门机制,提高了热点问题回答数据集 HotpotQA 上的检索和下游 QA 任务的表现,并在该数据集上显著改进了现有方法的状态。
Feb, 2021
我们提出了一种简单而高效的多跳密集检索方法来回答复杂的开放域问题,该方法在两个多跳数据集 HotpotQA 和多证据 FEVER 上实现了最先进的性能。与以前的工作相反,我们的方法不需要访问任何特定于语料库的信息(如文档间超链接或人工注释实体标记),可以应用于任何非结构化文本语料库。与已发布的 HotpotQA 的最佳准确度相匹配,同时在推理时间上快 10 倍,我们的系统也可以产生更好的效率 - 准确性权衡。
Sep, 2020
本文介绍了一种信息检索技术,利用最初检索到的证据中存在的实体信息来学习到其他相关证据,并在超过 500 万个维基百科段落的语境下,取得了显着的检索性能提升。此外,检索到的证据还使得现有的 QA 模型(无需任何训练)在 Hotpot 基准测试中 F1 指标提升了 10.59 个点。
Sep, 2019
针对开放域多跳问答中通过阅读理解模型识别终止段落锚点的新子问题,介绍了一种新的子问题解决方案 ——“桥接推理器” 。该推理器接受一定程度的监督,通常用于训练一个 “终止段落阅读器”,从一组起始段落中提取答案,实验结果在多个数据集上优于 Baseline 方法。
Sep, 2019
介绍了一种基于图形的循环检索方法,学习在 Wikipedia 图形上检索推理路径来回答多跳开放域问答问题。该方法在三个开放域 QA 数据集上实现了最新技术成果,特别是在 HotpotQA 中表现出显著的改进,超过了以前最好的模型 14 个百分点以上。
Nov, 2019
本文讲述了一种称为段落排名器的方法,它提高了开放域 QA 管道的性能,通过排名检索文档的段落以获取更高的答案回忆率和更少的噪声。在四个开放域 QA 数据集上,使用段落排名器排名段落和聚合答案相比未使用该方法,性能平均提高了 7.8%,也展示了开放域 QA 与机器理解模型的结合。
Oct, 2018
本文提出了一种基于图模型和关联反馈的检索方法,用于连续的问答交互中提高检索效率和准确性。实验结果显示,与当前流行的方法相比,该方法大幅提高了问题回答的 F1 得分。
Apr, 2021
通过使用单个多任务 transformer 模型,我们设计了一个统一的系统,可以迭代地检索支持事实,重新排序它们,并从所有检索的文档中预测答案,从而回答各种需要不同数量的检索步骤的开放领域问题。我们构建了一个新的基准测试 BeerQA,并证明我们的模型在现有基准测试和这个新基准测试上都表现出有竞争力的表现。
Oct, 2020
本文提出了一个多跳问题回答(Multi-Hop QA)的具体与形式化定义,并对现有的 Multi-Hop QA 框架进行了组织和总结,同时介绍了创建多跳问题回答数据集的最佳方法,以系统全面地介绍这个有趣而具有挑战性的任务。
Apr, 2022