多项选择阅读理解的协同匹配模型
本文提出了一种新的机器阅读理解方法 —— 双向联合匹配网络 (DCMN),该方法在多项选择阅读理解数据集 (RACE) 上取得了 state-of-the-art 结果,并计算出了同时同时考虑文章、问题和答案的相互关系的表示方法。
Jan, 2019
提出了一种两阶段知识蒸馏方法,通过将 MRC 任务分为两个单独阶段教导模型更好地理解文档,实验结果表明,使用该方法装备的学生模型具有显著的改进,证明了该方法的有效性。
Jul, 2023
本研究提出了一种名为 MMM 的基于多阶段多任务学习框架的多选阅读理解方法,其中采用了一种名为多步注意力网络 (MAN) 的新型分类器。实验证明该方法在四个代表性 MCQA 数据集上显著提高了最新技术水平。
Oct, 2019
本文研究多项选择阅读理解和听力理解测试中需要阅读多少上下文内容才能回答正确,发现自动化阅读理解系统即使没有或只有部分上下文内容的情况下也能比随机猜测表现更好,并提供了内容创作者自动捕捉所需理解和世界知识之间的权衡的方法。
Jul, 2023
本文介绍了阅读理解及其在自然语言处理领域的发展,并研究了单文档阅读理解作为多文档阅读理解系统的基础的作用,同时介绍了 RE3QA 模型作为多文档阅读理解系统的最佳答案提取工具。
Jan, 2022
本文提出了一种抽取后选择的两阶段阅读理解方法,将候选答案的信息融合后再选择答案,通过强化学习联合训练得到提高,最终提高了两个高难度的开放域阅读理解数据集的性能。
May, 2018
提出了一种基于端到端神经模型的多文本阅读理解模式,通过多个模块的共同作用来检测文本间的答案验证,实现对真实网络数据的阅读理解,显著提高了 MS-MARCO 数据集和中文 DuReader 数据集的 MRC 模型性能。
May, 2018
该研究论文以多选机器阅读理解为主题,使用预训练语言模型作为编码器,并通过微调来分享和传递知识。通过训练二元分类,将多选问题转换为单选问题,并选择置信度最高的选项作为最终答案。通过从其他 MRC 任务转移知识,提出的方法摆脱了多选框架,并可以利用其他任务的资源。在 RACE 和 DREAM 数据集上评估基于 ALBERT-xxlarge 模型构建的模型,实验结果表明该模型在多选方法上表现更好,并且通过从其他类型 MRC 任务转移知识,该模型在单个和集合设置中都取得了最先进的结果。
Apr, 2024
本文提出了一种名为卷积空间注意力(CSA)模型的新方法,可以更好地处理机器阅读理解(MRC)与多项选择问题。该模型可以充分提取文章、问题和候选项之间的相互信息,形成丰富的表示,实验结果表明,该模型在 RACE 和 SemEval-2018 Task11 数据集上可以显著提高各种最先进系统的性能。
Nov, 2018
本文研究了多选阅读理解中,通过词级别对选项之间的关系进行比较获得更好的推理能力的方法,并在 RACE 数据集中的表现超过其他模型,成为第一个超过 Amazon Mechanical Turk 表现的模型。
Mar, 2019