提出了一种两阶段知识蒸馏方法,通过将 MRC 任务分为两个单独阶段教导模型更好地理解文档,实验结果表明,使用该方法装备的学生模型具有显著的改进,证明了该方法的有效性。
Jul, 2023
本文提出了一种以级联模型组合轻量级的前馈网络为基础构建的答案提取算法,可以从文本中获取多次对同一问题的提及与信息聚合,并在 TrivaQA 数据集上表现优异。
Nov, 2017
该研究提出了一种基于深度理解的多文档机器阅读理解模型,包括三个模块:准确语义理解模块、输入问题和文档的交互模块以及答案支持模块。通过对 TriviaQA Web 和 DuReader 两个基准数据集的广泛实验证明,该模型在两个数据集上均表现出最先进的结果。
Feb, 2022
本研究提出一种简单而有效的方法,通过使用监督多任务学习,将 IR 和 RC 任务结合起来,以考虑答案跨度来训练 IR 组件,实现大规模机器阅读,从而取得了最先进的表现。
Aug, 2018
本文介绍了阅读理解及其在自然语言处理领域的发展,并研究了单文档阅读理解作为多文档阅读理解系统的基础的作用,同时介绍了 RE3QA 模型作为多文档阅读理解系统的最佳答案提取工具。
Jan, 2022
通过重新设计现有的机器阅读理解数据集,将其转化为互动、部分可观察的环境,加入上下文命令并训练模型,有望将模型扩展到面向 Web 级别的 QA 场景。
Aug, 2019
该论文旨在将神经段落级问题回答模型适应于以整个文档作为输入的情况,通过使用共享标准化训练目标,从多个段落中选择样本并鼓励模型产生全局正确的输出,该方法结合最先进的文档 QA 数据模型进行训练,实验证明了其在多个文档 QA 数据集上具有强大的性能表现,只需训练模型即可实现从 56.7 F1 到 71.3 F1 的大幅提高。
Oct, 2017
本文提出了 RE$^3$QA,一种统一的问答模型,它结合了上下文检索、阅读理解和答案重排序来预测最终答案。与以往的流水线方法不同,RE$^3$QA 跨不同的组件共享上下文化的文本表示,并设计了高质量的上游输出来直接监督下游模块,从而避免了上下文不一致的问题,实现了端到端的训练。实验证明,我们的模型优于管道基线,在两个版本的 TriviaQA 和两个变体的 SQuAD 上实现了最先进的结果。
Jun, 2019
本文提出了一种将外部关联知识与多任务学习相结合的方法,以提高机器阅读理解的效果,并在两个多选基准数据集上进行了实验,结果表明该方法在常识推理方面表现优异。
基于强化学习和词向量,提出了一种可以高效处理长篇文档的问答框架,该框架结合了快速筛选相关句子和精读相关句子的策略,并在 Wikireading 的一个挑战性子集和一组新的数据集上实现了最新的性能,同时使模型的速度提高 3.5 倍至 6.7 倍。
Nov, 2016