- 多项选择阅读理解的多层次证据推理
提出了一个新颖的通用模型增强方法,称为多粒度证据推断器(Mugen),该方法能够综合地提取粗粒度、中粒度和细粒度的证据,并将证据与原始文章整合,从而在四个多选 MRC 基准测试中实现了显著且一致的性能改进。
- ACL通过了解所学来满足所需
通过评估模型的能力,并在此基础上基于模型状态提供适当的训练数据,我们设计了一个可解释和多维度的 MRC 模型能力评估框架,并开发了 CBBC 策略,实现了基于模型能力的训练,从而最大化数据价值和提高训练效率。实验表明,我们的方法显著提高了 - 使用校准器提高机器阅读理解的鲁棒性
本文提出一种 MRC 模型后处理方法,依赖于 XGBoost 模型的校准器,结合手动特征和表示学习特征来改善模型的鲁棒性和性能表现,实验结果表明在针对敌对数据的情况下,模型的性能有超过 10% 的提升,同时也提升了原始和泛化数据集的性能。
- ACL使用话语解析的多任务对话理解
提出了一个用于多方对话机器阅读理解 (MRC) 的多任务模型,结合问答 (QA) 和话语解析 (DP) 任务,在 Molweni 基准测试中证明了多任务训练不仅受益于 QA 任务,也有助于 DP 任务,当处理更长的对话时,联合模型表现得更强 - 开放领域问答中分离式 Transformer 的可伸缩推理
本研究提出一种将 transformer MRC 模型解耦为输入组件和交叉组件的方法,以减少计算成本和延迟,通过知识蒸馏和学习表示压缩层来保持解耦 transformer 的准确性,并可使在线 MRC 的计算成本和延迟降低 30%-40%, - ACL利用对抗攻击揭示机器阅读理解模型中的统计偏差
本文研究了预训练语言模型在机器阅读理解任务中表现的问题,发现现有模型的性能存在统计偏差,提出了一种有效的攻击方法以及一种改进的训练方法来解决这个问题。
- AAAITSQA:基于表格场景的问答系统
本文提出了一种基于结构化数据的问答任务:表格情境问答,以及一个新的数据集 GeoTSQA。作者利用 TTGen 生成句子并结合多种信息回答问题,在 GeoTSQA 上优于现有强基线方法。
- AAAI生成式阅读理解的多跨度样式提取
该研究提出了一种多跨度抽取的框架,将单跨度抽取方法扩展到生成型 MRC 领域,旨在缓解生成型模型和单跨度模型之间的困境,并生成具有更好句法和语义形式的答案。
- 长文本机器阅读理解的循环分块机制
本文研究了长篇文本上的机器阅读理解(MRC),提出了一种利用强化学习和循环机制实现更加灵活的分块方式,以提高 MRC 模型的效果。实验表明,该模型可以更好地捕捉完整答案及其上下文信息,且能够跨越多个文本段落提供答案。
- ACL机器阅读理解的基准评测:心理学视角
该论文提出了基于心理学和心理测量学的 MRC 数据集设计理论基础,要求未来的数据集应该评估模型构建上下文相关情境的合理和连贯的表示能力,并通过防止捷径的问题和解释来确保实质性有效性。