本研究提出一种利用基础文档和少量标注数据进行深度学习提取式问答的方法,并通过对三个不同领域数据集的实验验证了其有效性。
Apr, 2018
本文提出了一个简单的构建神经 QA 基线系统的启发式方法,并发现了两种必要的构建高性能神经 QA 系统的因素:第一,处理上下文时需要注意问题单词;第二,需要超越简单的词袋建模,例如循环神经网络。我们的结果表明,满足这两个要求的 FastQA 系统可以与现有模型实现非常有竞争力的性能。我们认为这一令人惊讶的发现将之前系统的结果和最近 QA 数据集的复杂性放在了一个更加客观的角度。
Mar, 2017
本文旨在通过运用多阶段关注机制和序列到序列模型,在长文档的背景下产生更真实的问题,结果表明在 SQuAD、MS MARCO 和 NewsQA 三个问答数据集上,该方法优于现有方法。
Oct, 2019
论文研究了使用神经网络和预训练语言模型来提取文件中问题的答案,通过提供丰富的上下文表示并允许模型在上下文相关和上下文无关的单词表示之间进行选择,可以获得比现有技术更好的性能。
Dec, 2017
该研究开发了一种基于上下文依赖词级别注重和问题引导的句子级别注意力的新型模型,以更准确地理解文本,加强上下文建模,可以在交互式问答场景中处理不完整或模糊信息,大大提升了传统 QA 模型的表现。
Dec, 2016
提出一种将问题回答建模为一种对齐问题的结构支持向量机方法,通过将问题和上下文分解成基于语义角色的单元,并将问题与上下文的子图进行对齐以找到答案,该模型可用于跨领域问题回答,且通过对齐得分派生出的限制使模型更加鲁棒。
Apr, 2020
LeanContext 是一种从上下文中高效提取与查询密切相关的关键句子的方法,采用强化学习技术动态确定提取的句子数量,其余重要性较低的句子通过开源的文本缩减方法进行缩减。与保留完整上下文的基准方法相比,尽管成本减少了 37.29%至 67.81%,LeanContext 的 ROUGE-1 得分仅下降了 1.41%至 2.65%。此外,如果使用免费预训练的基于大型语言模型的摘要方法来缩减上下文,LeanContext 可以进一步修改缩减后的上下文,提高准确性(ROUGE-1 得分)13.22%至 24.61%。
Sep, 2023
该论文旨在将神经段落级问题回答模型适应于以整个文档作为输入的情况,通过使用共享标准化训练目标,从多个段落中选择样本并鼓励模型产生全局正确的输出,该方法结合最先进的文档 QA 数据模型进行训练,实验证明了其在多个文档 QA 数据集上具有强大的性能表现,只需训练模型即可实现从 56.7 F1 到 71.3 F1 的大幅提高。
Oct, 2017
该研究利用神经注意力机制提高机器阅读理解和问答的准确性,分析和比较多种神经网络模型,将其组成集成模型并在 SQUAD 数据集上测试,结果表明集成模型优于最佳模型 Mnemonic Reader。
Aug, 2019
本文通过定量和定性分析现有端到端神经模型在斯坦福问答数据集上的结果,旨在理解和比较其特性,以迈向实现在多个领域中的泛化能力。研究发现,预测错误反映了某些模型特定偏差,本文对此进行了进一步讨论。
Jun, 2018