变分开放领域问答
提出了一种针对获取增强型开放领域问答系统的端到端可区分训练方法,它结合多个已检索文件的信息来生成答案,通过期望最大化算法的近似计算来建模检索决策,证明了该方法优于现有同类方法,达到了新的最高水平。
Jun, 2021
本文提出了一种新的 open domain question answering 方法,利用问题 - 回答对来同时学习 retriever 和 reader,将 Wikipedia 中的证据检索视为潜在变量,并通过 Inverse Cloze Task 进行预训练。我们的方法在五个 QA 数据集上进行测试,表明在用户真正寻求答案的数据集上,学习检索至关重要,完全匹配方面的得分比传统的 IR 系统(如 BM25)高达 19 个点。
Jun, 2019
本文提出了一种基于数据和文本的统一问答框架 UDT-QA,并使用数据到文本方法将 Wiki 百科中的表格和 Wikidata 中的图表达为口语化信息,以扩展知识索引。实验证明,该方法取得了自然问答 (Single-model state-of-the-art) 的最佳成果,并表明对于调整和热插拔的两种情况,口语化知识的优先考虑可以优化答案推理。
Oct, 2021
在大语言模型的时代,应用检索增强生成等技术可以更好地解决开放领域问题回答问题。本文提出了一种通用方便的方法来覆盖更长的上下文,以在开放领域的问答任务中应用。我们的实验证明,在精调后,在两个保留数据集、四个留存数据集和两个上下文学习设置中,性能得到了提高。
Apr, 2024
本文提出了一种召回 - 验证框架,以应对开放域多项答案问答中存在的多种问题,实验结果表明该框架在两个多项答案数据集上取得了最新的最好结果。
Oct, 2021
提出一种新颖的开放领域问答框架,使用中介模块对异构知识源上的单跳 / 多跳问题进行回答。在预训练语言模型的基础上,通过将检索到的证据与其相关的全局上下文链接到图中,并将它们组织成候选证据链,实现了竞争性的性能。在两个 ODQA 数据集 OTT-QA 和 NQ 上,我们的模型显著优于之前最先进的方法,在 OTT-QA 上具有 47.3 的精确匹配分数(相对增益 45%)。
Oct, 2022
本文提出了一种基于动态记忆网络和外部知识库的 VQA 算法,通过对外部知识的检索和动态记忆网络对知识和图像的关注与推理,有效地回答包括开放领域问题在内的更复杂问题,并在视觉问答任务中取得了最好的表现。
Dec, 2017
通过使用单个多任务 transformer 模型,我们设计了一个统一的系统,可以迭代地检索支持事实,重新排序它们,并从所有检索的文档中预测答案,从而回答各种需要不同数量的检索步骤的开放领域问题。我们构建了一个新的基准测试 BeerQA,并证明我们的模型在现有基准测试和这个新基准测试上都表现出有竞争力的表现。
Oct, 2020
为 Adobe 产品建立内部问答系统,提出了一种新的框架来编译大型问答数据库并发展了基于检索感知的大型语言模型微调方法,展示了微调检索器在最终生成中带来的重大改进,降低了生成过程中的幻觉并在上下文中保留了最新的检索信息以实现情境基础。
Apr, 2024