通过迭代查询生成回答复杂开放领域问题
该论文介绍了一种新的开放域问答框架,其中检索器和阅读器相互迭代交互,引入了多步推理机制,有助于从长度为百万级的语料库中检索信息性段落,并应用于不同的问答数据集和模型中均取得了一致性的提升。
May, 2019
通过使用单个多任务 transformer 模型,我们设计了一个统一的系统,可以迭代地检索支持事实,重新排序它们,并从所有检索的文档中预测答案,从而回答各种需要不同数量的检索步骤的开放领域问题。我们构建了一个新的基准测试 BeerQA,并证明我们的模型在现有基准测试和这个新基准测试上都表现出有竞争力的表现。
Oct, 2020
我们提出了一种简单而高效的多跳密集检索方法来回答复杂的开放域问题,该方法在两个多跳数据集 HotpotQA 和多证据 FEVER 上实现了最先进的性能。与以前的工作相反,我们的方法不需要访问任何特定于语料库的信息(如文档间超链接或人工注释实体标记),可以应用于任何非结构化文本语料库。与已发布的 HotpotQA 的最佳准确度相匹配,同时在推理时间上快 10 倍,我们的系统也可以产生更好的效率 - 准确性权衡。
Sep, 2020
通过结合文档检索技术与大型语言模型 (LLM),我们提出了一种名为 Generator-Retriever-Generator (GRG) 的新方法,通过首先命令模型根据给定的问题生成上下文文档,然后使用双编码器网络从外部语料库中检索与问题相关的文档。将生成的和检索的文档传递给第二个 LLM 模型,生成最终的答案。通过结合文档检索和 LLM 生成,我们的方法解决了开放域问答的挑战,如生成信息丰富且上下文相关的答案。GRG 在 TriviaQA、NQ 和 WebQ 数据集上表现优于最先进的生成 - 阅读和检索 - 阅读流水线 (GENREAD 和 RFiD),性能至少提高了 + 5.2、+4.2 和 + 1.6。我们提供代码、数据集和检查点。
Jul, 2023
提出一种新颖的开放领域问答框架,使用中介模块对异构知识源上的单跳 / 多跳问题进行回答。在预训练语言模型的基础上,通过将检索到的证据与其相关的全局上下文链接到图中,并将它们组织成候选证据链,实现了竞争性的性能。在两个 ODQA 数据集 OTT-QA 和 NQ 上,我们的模型显著优于之前最先进的方法,在 OTT-QA 上具有 47.3 的精确匹配分数(相对增益 45%)。
Oct, 2022
本文提出了一种基于问题生成的新型多跳问答方法,通过精心设计端到端的 QG 模块,在上下文理解中提出内在逻辑子问题,从而继承了 QD 方法的可解释性并表现出较高的性能。实验证明,我们提出的 QG 模块是有效的,在流畅性、一致性和多样性方面优于 QD 方法,并获得了人工评估的定量可解释性。
Mar, 2022
UniKGQA 是一种新的多跳知识图谱问答方法,通过统一检索和推理模型架构和参数学习,基于预训练语言模型的语义匹配模块和匹配信息传播模块进行问题与关系的语义匹配,采用共同的预训练任务和检索以及推理定向的微调策略。
Dec, 2022
介绍了一种基于图形的循环检索方法,学习在 Wikipedia 图形上检索推理路径来回答多跳开放域问答问题。该方法在三个开放域 QA 数据集上实现了最新技术成果,特别是在 HotpotQA 中表现出显著的改进,超过了以前最好的模型 14 个百分点以上。
Nov, 2019
本文介绍了一种信息检索技术,利用最初检索到的证据中存在的实体信息来学习到其他相关证据,并在超过 500 万个维基百科段落的语境下,取得了显着的检索性能提升。此外,检索到的证据还使得现有的 QA 模型(无需任何训练)在 Hotpot 基准测试中 F1 指标提升了 10.59 个点。
Sep, 2019