本文提出了一种基于神经网络和增强学习的新型开放领域问答系统,通过信息检索结合阅读理解模型对大规模语料库进行查询,显著提高了多个数据集的表现。
Aug, 2017
该研究提出了两个神经网络排序器,用于评分不同段落是否包含特定问题的答案,进一步分析了语义相似性与单词级相关性匹配在开放域 QA 中的相对重要性。
Apr, 2018
本文综述了传统信息检索方法和深度神经网络方法在文本问答任务中的应用,介绍了相关模型以及可供比较的数据集和文献结果。
Feb, 2020
本文提出了一个简单的构建神经 QA 基线系统的启发式方法,并发现了两种必要的构建高性能神经 QA 系统的因素:第一,处理上下文时需要注意问题单词;第二,需要超越简单的词袋建模,例如循环神经网络。我们的结果表明,满足这两个要求的 FastQA 系统可以与现有模型实现非常有竞争力的性能。我们认为这一令人惊讶的发现将之前系统的结果和最近 QA 数据集的复杂性放在了一个更加客观的角度。
Mar, 2017
本篇论文介绍了一个用于评估大规模句子级别答案检索模型的基准 Retrieval Question-Answering(ReQA),并使用神经编码模型和传统信息检索技术建立了基线。我们提供我们的评估代码以鼓励更多关于这一具有挑战性的任务的研究。
Jul, 2019
本文讲述了一种称为段落排名器的方法,它提高了开放域 QA 管道的性能,通过排名检索文档的段落以获取更高的答案回忆率和更少的噪声。在四个开放域 QA 数据集上,使用段落排名器排名段落和聚合答案相比未使用该方法,性能平均提高了 7.8%,也展示了开放域 QA 与机器理解模型的结合。
Oct, 2018
本文提出了两种新的模型,在公开领域问答数据集中取得了最具竞争力的结果。这两种方法是使用多篇文章生成答案。
Nov, 2017
该研究提出 HyperQA,是基于超伸缩空间对问题和答案嵌入之间的关系建模的简单但新颖的深度学习体系结构,它不需要进行特征工程,相似性矩阵匹配,复杂的注意机制或过度参数的层,但在多个基准测试中表现优异并与许多具有这些功能的模型保持竞争力。
Jul, 2017
本文提出了一个可针对任何问答模型直接应用的模型无关方法来解决识别对抗性例子的问题,该方法采用明确的答案候选人重新排名机制,通过内容重叠度评分候选答案,并配合强基础 QA 模型使用,其性能优于现有防御技术。
Feb, 2021
本文介绍了一种使用自注意力神经网络对维基百科等自然语言语料库中提取的文档进行语义排名的方法,并提出了一种模型,该模型使用了这种语义排名,能够在两个最流行的答题排行榜中名列第一,这两个排行榜分别是 ARC Easy 和 Challenge,我们还发布了排名的文档,以便它们可以被直接使用用于改进下游决策模型。
Sep, 2019