本研究提出一种简单而有效的方法,通过使用监督多任务学习,将 IR 和 RC 任务结合起来,以考虑答案跨度来训练 IR 组件,实现大规模机器阅读,从而取得了最先进的表现。
Aug, 2018
提出了一种两阶段知识蒸馏方法,通过将 MRC 任务分为两个单独阶段教导模型更好地理解文档,实验结果表明,使用该方法装备的学生模型具有显著的改进,证明了该方法的有效性。
Jul, 2023
本文提出了一种基于数据丰富的方法,提取给定语料对中的语义联系作为人类的通用知识,并在此基础上构建了一种知识辅助的 MRC 模型,与业内领先 MRC 模型相比具有相当的性能和更强的抗干扰能力。
Sep, 2018
本文提出了一种使用少量半结构化解释 “教” 机器阅读理解的方法,同时提取结构化变量和规则,并组成神经模块作为下游 MRC 模型的训练实例的注释,使用可学习的神经模块和软逻辑来处理语言变化并克服模型覆盖率不足。在 SQuAD 数据集上,使用 26 个解释进行监督训练,该方法实现了 70.14% 的 F1 得分,与使用 1100 个标记实例的普通监督学习相比,速度提高了 12 倍。
May, 2020
本研究提出一种深度串级学习模型来平衡在线问答系统的效能和效率之间的基本权衡,在多文档的 MRC 场景中取得更好的效果并能够在不到 50 毫秒内稳定地为数百万日请求提供服务。
Nov, 2018
本论文介绍了一个多目标的医疗领域机器阅读理解任务,同时提出了一个高质量的医学数据集 CMedMRC,并提出了一种医疗 BERT 模型 CMedBERT,这种模型通过异构特征的动态融合和多任务学习策略将医学知识融入到预训练的语言模型中,实验表明 CMedBERT 通过融合上下文感知和知识感知的令牌表示,始终优于强基线。
Aug, 2020
通过利用知识图谱与预训练语言模型的嵌入空间相结合的方法,我们对领域特定的文本数据进行了对齐和融合,从而实现与领域特定模型相似的性能表现。
Jan, 2024
本文提出了一种神经阅读理解模型,该模型在填空式题目中将外部常识知识编码为键值内存,并将其与上下文表征结合起来推断答案,从而提高了阅读理解的准确性和复杂度。
May, 2018
本文提出在 fine-tuning 阶段加入两个辅助任务,建立跨语言问题 - 段落对,并结合从 web 挖掘的知识短语进行跨语言 MRC,实验证明该方法有效。
Apr, 2020
本研究提出一种利用深度概率逻辑学习框架提取证据句子的方法,在三个具有挑战性的多项选择机器阅读理解数据集上实现了可比较或更好的性能,为多项选择机器阅读理解提供了新的思路。
Feb, 2019