- 多跳机器阅读理解方法全面调查
本文综述了近年来一系列关于基于 31 项研究的多段式机器阅读理解方法的探索和研究成果,着重介绍了问题定义、模型技术,以及模型和技术之间的优缺点比较。
- 使用辅助任务的特征增强型机器阅读理解
研究提出在编码层注入多粒度信息来提高机器阅读理解系统的性能,并在实验中得出结果证明该方法适用于许多现有的 MRC 模型。
- EMNLPIDK-MRC: 印尼机器阅读理解中的无法回答问题
本研究旨在填补中低资源语言 (如印度尼西亚语) 针对不可回答问题 (MRC) 数据集的缺失。我们构建了一个称为 IDK-MRC 的新数据集,将自动和手动不可回答问题生成相结合,以最小化手动数据集构建成本同时保持数据集质量,并分析表明我们的数 - U3E: 无监督和擦除基础证据提取用于机器阅读理解
本研究提出一种无监督证据抽取方法 U3E,它利用文本中句子级特征擦除的变化作为输入,模拟人类记忆衰退造成的问题解决能力下降。通过比较实验结果表明,U3E 不仅可以更准确地抽取证据,而且还可以显著改善模型性能。
- 机器阅读理解的模块化方法:任务感知专家混合
该论文介绍了一个针对较小数据集的任务感知专家网络混合模型,重点研究常识学习问题,并通过训练不同的专家网络来捕获每个段落、问题和选项三元组之间不同类型的关系,同时灵感来自多任务和迁移学习的最新进展。通过将多个网络融合,强制实现它们的特定目标和 - 机器阅读理解的稳健领域自适应
本文提出了一种名为 RMRC 的方法,使用对话和领域自适应技术构建问题 - 答案对,通过答案提取器和问题选择器以及增强式自训练方法进行优化,从而解决机器阅读理解中因领域迁移引起的问题,包括噪声对应和效率降低,实验证明了该方法的有效性。
- 机器阅读理解中推理捷径的测量与缓解调查
本综述论文探讨了自然语言处理中普遍存在的快捷学习问题,侧重于机器阅读理解领域,总结了已有的快捷学习测量和减轻方法,并提出了缺乏公共挑战集合和其他领域突出的快捷学习方法对 MRC 的两个主要关注点。
- 通过错排阅读理解实现无需触发词的事件检测
本文提出了一种基于 Derangement 机制的机器阅读理解框架的无触发词事件检测方法,通过与所有事件类型 token 进行拼接并设计简单而有效的事件混淆模块来解决多标记分类、线索不足和事件分布不均衡等挑战。实验结果表明,该模型表现出色, - 机器阅读理解的多粒度表示探究与应用
本文提出了一种名为自适应双向注意胶囊网络(ABA-Net)的新方法,通过在编码器中利用不同级别的源表示来为预测器提供不同视图,从而充分利用模型的表达能力,进而提升机器阅读理解任务的性能,实验结果表明,在 SQuAD 数据集上实现了最新的最佳 - 多领域对话状态跟踪中考虑行为的槽 - 值预测
该研究针对对话系统中特定目标和本体的对话状态跟踪模型的可扩展性问题,提出了一种将对话行为融入到对话模型设计中,利用机器阅读理解预测跨域对话状态的方法,并在实验结果中表现出较高的准确度,为未来的面向任务的对话系统提供了对话状态设计的指导。
- 如何提升机器阅读理解模型:基于跨度对比学习的应用
本文提出了一种基于对比学习的跨度方法(spanCL),该方法能够显式地将可回答的问题与其答案跨度级别上的可回答和不可回答的对应项进行对比,并迫使 MRC 模型察觉到多种形式的关键语义变化,实验结果表明 spanCL 在 SQuAD 2.0 - MRCLens: 一个 MRC 数据集偏见检测工具包
研究提出了 MRCLens 工具,用于检测 MRC 数据集中的偏见并进行分类,以帮助研究者在训练模型之前就调整模型或数据,以解决模型过度依赖数据集偏见而无法泛化的问题。
- 一种以理解为导向的鲁棒机器阅读理解模型
提出了一种基于理解的机器阅读理解模型,通过自然语言推理模型、多头注意力方法以及多语言学习机制解决了过度敏感、过度稳定和泛化能力等问题,实验结果表明其在 DuReader 和两个 SQuAD 相关数据集上表现优异。
- GAAMA 2.0: 一个集成系统,用于回答布尔和摘要问题
该研究提出了一个多语言机器阅读理解系统并提供了前端演示,可以处理布尔值问题并提供支持证据和突出答案,也可以处理抽取式问题,通过突出显示段落中的答案来回答问题,该系统利用两种不同的实现方式,一种包括几个独立的 transformers 堆栈, - FinBERT-MRC:利用 BERT 在机器阅读理解范式下的金融命名实体识别
通过对金融文本信息提取的困难进行分析,利用机器阅读理解方法,设计实现了一种新的模型 ——FinBERT-MRC,能更好的提取目标实体和信息。应用于华语和商业数据集,实验结果表明 FinBERT-MRC 模型相比 BiLSTM-CRF、BER - ACLNER-MQMRC: 将命名实体识别形式化为多问题机器阅读理解
本研究提出了一种新颖的基于 BERT 的多问题机器阅读理解体系结构,将命名实体识别作为一个多问题 MRC 任务,旨在解决大规模电子商务属性(或实体)在高性能和优化训练和推理运行时从非结构化文本中提取的问题,该模型在三个 NER 数据集上获得 - 2022 年古兰经问题回答中的转移学习与变形金刚
本研究通过迁移学习和集成学习等策略,利用已有的阿拉伯语 MRC 数据,实现了对 Qur'an QA 2022 共享任务的有效问答和阅读理解,pRR 评分为 0.49。
- 基于知识增强对比提示的少样本抽取式问答
该论文介绍了一种名为 KECP 的新框架以解决机器阅读理解中的抽取式问答任务中的少样本学习问题,通过转换任务为非自回归掩码语言建模生成问题,并引入外部知识库和上下文来增强嵌入的查询表示,同时通过对比学习目标和 MLM 目标的联合训练来提高 - SIGIRLogiformer:一种用于解释性逻辑推理的双分支图转换器网络
Logiformer 是采用图形变换器网络的端到端模型,具有解决逻辑推理中长距离依赖性问题和将离散逻辑结构映射到连续文本嵌入空间的优点,介绍了不同的逻辑单位抽取策略,采用动态门机制和问题感知的自我注意模块在答案预测之前更新特征,其推理过程利 - ACLOPERA: 基于操作中心的离散文本推理
提出了一种基于操作的离散推理框架 OPERA,通过使用轻量级符号操作作为神经模块来实现推理能力和可解释性,该方法在多个数据集上进行了广泛实验并取得了不错的成果。