多项选择阅读理解的多层次证据推理
本研究提出一种利用深度概率逻辑学习框架提取证据句子的方法,在三个具有挑战性的多项选择机器阅读理解数据集上实现了可比较或更好的性能,为多项选择机器阅读理解提供了新的思路。
Feb, 2019
提出了一种两阶段知识蒸馏方法,通过将 MRC 任务分为两个单独阶段教导模型更好地理解文档,实验结果表明,使用该方法装备的学生模型具有显著的改进,证明了该方法的有效性。
Jul, 2023
提出了一种基于端到端神经模型的多文本阅读理解模式,通过多个模块的共同作用来检测文本间的答案验证,实现对真实网络数据的阅读理解,显著提高了 MS-MARCO 数据集和中文 DuReader 数据集的 MRC 模型性能。
May, 2018
本文利用多任务学习在两种多项选择阅读理解任务(RACE 和 DREAM)上实现了新的 DREAM 任务的最新性能,其中运用了基于 Transformer 的模型,通过在上下文和问题 - 答案之间添加额外的多头注意力层来 fine-tune 模型。
Feb, 2020
本研究提出了一种名为 MMM 的基于多阶段多任务学习框架的多选阅读理解方法,其中采用了一种名为多步注意力网络 (MAN) 的新型分类器。实验证明该方法在四个代表性 MCQA 数据集上显著提高了最新技术水平。
Oct, 2019
本研究提出一种深度串级学习模型来平衡在线问答系统的效能和效率之间的基本权衡,在多文档的 MRC 场景中取得更好的效果并能够在不到 50 毫秒内稳定地为数百万日请求提供服务。
Nov, 2018
本文提出了一种使用少量半结构化解释 “教” 机器阅读理解的方法,同时提取结构化变量和规则,并组成神经模块作为下游 MRC 模型的训练实例的注释,使用可学习的神经模块和软逻辑来处理语言变化并克服模型覆盖率不足。在 SQuAD 数据集上,使用 26 个解释进行监督训练,该方法实现了 70.14% 的 F1 得分,与使用 1100 个标记实例的普通监督学习相比,速度提高了 12 倍。
May, 2020
该研究论文以多选机器阅读理解为主题,使用预训练语言模型作为编码器,并通过微调来分享和传递知识。通过训练二元分类,将多选问题转换为单选问题,并选择置信度最高的选项作为最终答案。通过从其他 MRC 任务转移知识,提出的方法摆脱了多选框架,并可以利用其他任务的资源。在 RACE 和 DREAM 数据集上评估基于 ALBERT-xxlarge 模型构建的模型,实验结果表明该模型在多选方法上表现更好,并且通过从其他类型 MRC 任务转移知识,该模型在单个和集合设置中都取得了最先进的结果。
Apr, 2024
本论文提出了一个统一框架来系统研究现有的语言特征、推理需求、背景知识和事实正确性以及词汇线索的存在。研究结果发现 MRC 数据存在词汇歧义、答案事实正确性的差异和词汇线索的存在,这些都可能降低阅读理解的复杂性和质量。
Mar, 2020