面向机器阅读理解的证据句子提取
提出了一个新颖的通用模型增强方法,称为多粒度证据推断器(Mugen),该方法能够综合地提取粗粒度、中粒度和细粒度的证据,并将证据与原始文章整合,从而在四个多选 MRC 基准测试中实现了显著且一致的性能改进。
Oct, 2023
本研究提出一种无监督证据抽取方法 U3E,它利用文本中句子级特征擦除的变化作为输入,模拟人类记忆衰退造成的问题解决能力下降。通过比较实验结果表明,U3E 不仅可以更准确地抽取证据,而且还可以显著改善模型性能。
Oct, 2022
提出了一种两阶段知识蒸馏方法,通过将 MRC 任务分为两个单独阶段教导模型更好地理解文档,实验结果表明,使用该方法装备的学生模型具有显著的改进,证明了该方法的有效性。
Jul, 2023
本文提出了一种使用少量半结构化解释 “教” 机器阅读理解的方法,同时提取结构化变量和规则,并组成神经模块作为下游 MRC 模型的训练实例的注释,使用可学习的神经模块和软逻辑来处理语言变化并克服模型覆盖率不足。在 SQuAD 数据集上,使用 26 个解释进行监督训练,该方法实现了 70.14% 的 F1 得分,与使用 1100 个标记实例的普通监督学习相比,速度提高了 12 倍。
May, 2020
本文提出一种通用方法,在 MRC 模型的指导下执行无监督的句子简化,以改善 MRC-based 事件提取的性能,并在 ICEWS 地缘政治事件提取数据集上进行评估,特别关注 'Actor' 和 'Target' 参数角色,结果显示上下文简化可以提高演员提取 5% 以上和目标提取 10% 以上的性能。
Apr, 2022
本文提出了一种将外部关联知识与多任务学习相结合的方法,以提高机器阅读理解的效果,并在两个多选基准数据集上进行了实验,结果表明该方法在常识推理方面表现优异。
Aug, 2019
使用自我监督的方法在预训练过程中引入两个任务强化证据提取,从而增强证据提取能力,以提高 Pre-trained Language Models 在机器阅读理解方面的表现。
May, 2021
本研究提出一种深度串级学习模型来平衡在线问答系统的效能和效率之间的基本权衡,在多文档的 MRC 场景中取得更好的效果并能够在不到 50 毫秒内稳定地为数百万日请求提供服务。
Nov, 2018
本论文介绍了一个多目标的医疗领域机器阅读理解任务,同时提出了一个高质量的医学数据集 CMedMRC,并提出了一种医疗 BERT 模型 CMedBERT,这种模型通过异构特征的动态融合和多任务学习策略将医学知识融入到预训练的语言模型中,实验表明 CMedBERT 通过融合上下文感知和知识感知的令牌表示,始终优于强基线。
Aug, 2020