本研究展示了如何使用密集向量表示实现开放领域的问答,通过一个简单的双编码框架,通过从一小部分问题和段落中学习嵌入来实现检索,并在多个开放域 QA 基准测试中超越了传统的基于 TF-IDF 或 BM25 的方法,为终端 QA 系统的最新性能奠定了基础。
Apr, 2020
利用 PubMed 作为可靠的医学研究文档集合,针对开放领域的问答设置,研究通过修改检索设置来提高问答系统性能的方法。结果显示,减少检索到的文档数量,偏爱近期和被引用次数较多的文献可以提高最终的宏观 F1 得分达到 10%。
Apr, 2024
本文介绍了一个新的基于维基百科的、特定于非事实性答案段落检索的集合,其中包含成千上万个带注释的答案和问题,展示了各种先进神经架构和检索模型的基准结果,并展示了未来研究在主题相关文件中答案段落检索所面临的独特挑战。
May, 2018
本研究提出了一种基于知识库和相关文章文本联合的开放领域问答方法,通过检索和阅读一个包含文本段的图表结构,并采用跨相关段落传播信息的方式更新文本段落表示,从而在 WebQuestions、自然问题和 TriviaQA 三个任务的数据集上实现了 2-11% 的性能提升。
Nov, 2019
提出一种新的文档检索方法,通过赋予每个文档一个唯一标识符和使用密集矢量进行索引,以实现高效准确地检索问题答案所需的证据文档,适用于对话聊天机器人等情景。
Oct, 2022
研究使用生成模型在开放领域问答中的表现,发现利用文本段落检索可以显著提高性能,证明生成模型擅长聚合和组合多个段落的证据,同时在 Natural Questions 和 TriviaQA 开放式基准测试中取得最好的结果。
Jul, 2020
本文提出了一种基于图模型和关联反馈的检索方法,用于连续的问答交互中提高检索效率和准确性。实验结果显示,与当前流行的方法相比,该方法大幅提高了问题回答的 F1 得分。
Apr, 2021
本文提出了一种三阶段文件 QA 方法,包括从 PDF 中提取文本,从提取的文本中检索证据以形成良好的上下文,以及从上下文中提取 3 种类型的知识(抽取式、生成式或布尔式)。通过对 QASPER 的评估,DRC 系统在交付更优的上下文选择的同时,Answer-F1 达到了 +7.19 的提高。结果表明,DRC 在科学文献 QA 中有很大的亮点。
本篇论文介绍了一个用于评估大规模句子级别答案检索模型的基准 Retrieval Question-Answering(ReQA),并使用神经编码模型和传统信息检索技术建立了基线。我们提供我们的评估代码以鼓励更多关于这一具有挑战性的任务的研究。
Jul, 2019
本文提出了两种新的模型,在公开领域问答数据集中取得了最具竞争力的结果。这两种方法是使用多篇文章生成答案。
Nov, 2017