图书问答中令人沮丧的证据检索
本论文介绍了一个基于纯文本书籍进行问答的系统(BookQA),使用记忆网络对问题进行推理,并对前人的工作进行了改进,包括 BERT 检索和基于书句生成的预训练。在最新的 NarrativeQA 语料库的测试中,我们证明了这种方法的可行性和需要进行更多的研究,如文本表示,相关段落的检索和推理。
Oct, 2019
利用 PubMed 作为可靠的医学研究文档集合,针对开放领域的问答设置,研究通过修改检索设置来提高问答系统性能的方法。结果显示,减少检索到的文档数量,偏爱近期和被引用次数较多的文献可以提高最终的宏观 F1 得分达到 10%。
Apr, 2024
本文针对欧洲议会选举的数据进行建模,提出了一种基于随机森林和多层感知器神经网络相结合的方法,去完成对选民意向的预测任务,该模型相比其他模型具有更好的预测准确度和稳定性。
May, 2022
本文研究基于自然语言的问题回答技术(NLQA)中的开放式书籍问题回答,并使用最先进的语言模型与信息检索技术以及排名和加权得分的方法,针对 OpenBookQA 数据集取得了 72.0%的准确性,比目前最先进技术提高了 11.6%。
Jul, 2019
本论文探索了一种独特的用户指导的知识源,介绍了个人叙述的多关系问答。作者生成并发布了五个数据集 (TextWorldsQA),并在该任务上对几种最先进的问答模型及其变种进行了全面的评估和分析,以及发布了一个轻量级的 Python 框架 (TextWorlds),用于生成任意的世界和叙述。
Feb, 2019
本文综述了 OpenQA 领域的最新研究趋势,重点关注采用神经 MRC 技术的系统,介绍了现代 OpenQA 体系结构 Retriever-Reader 及采用该体系结构的各种系统,讨论了开发 OpenQA 系统面临的关键挑战,并对常用的基准进行了分析。
Jan, 2021
本文提出了一种新的 open domain question answering 方法,利用问题 - 回答对来同时学习 retriever 和 reader,将 Wikipedia 中的证据检索视为潜在变量,并通过 Inverse Cloze Task 进行预训练。我们的方法在五个 QA 数据集上进行测试,表明在用户真正寻求答案的数据集上,学习检索至关重要,完全匹配方面的得分比传统的 IR 系统(如 BM25)高达 19 个点。
Jun, 2019