- 基于越南维基百科文本知识源的开放领域问答
这篇论文提出了 XLMRQA 作为第一个使用监督 transformer-based reader 和基于 Wikipedia 的语料库作为知识来源的越南问题回答系统,优于基于深度神经网络模型的 DrQA 和 BERTserini,同时分析 - 语言模型与跨语言序列标注之间的桥梁
本篇论文提出 Cross-lingual Language Informative Span Masking (CLISM) 和 ContrAstive-Consistency Regularization (CACR) 两种方法来缩小预先 - 生物医学事实型问题回答的数据增强
本文研究七种数据扩增方法在事实型问题回答中的作用,着重于生物医学领域以及数据难以获得的情况。作者从 BioASQ 挑战赛中获取数据,然后通过人工智能技术和其他方法进行扩增。实验证明,即使在使用大型预训练模型时,数据扩增也会带来非常显著的性能 - 通过句子简化改进零样本事件提取
本文提出一种通用方法,在 MRC 模型的指导下执行无监督的句子简化,以改善 MRC-based 事件提取的性能,并在 ICEWS 地缘政治事件提取数据集上进行评估,特别关注 'Actor' 和 'Target' 参数角色,结果显示上下文简化 - ACL学习语义解耦表示以实现多语言机器阅读理解中的零样本跨语言转移
本文提出一种新颖的多语言机器阅读理解框架,配备 Siamese Semantic Disentanglement Model(SSDM),用于在多语言预训练模型中学习的表示中分离语义和句法,以明确将语义知识转移到目标语言;实验证明,该方法比 - Clozer: 适应性数据增强用于填空式阅读理解
本文提出了 Clozer,一种基于序列标注的填空答案提取方法,用于 TAPT 从而提高模型性能,并在多项选择式 MRC 任务上进行了实验,证明 Clozer 在能够独立识别黄金答案的同时,提高了 TAPT 的有效性。
- ACL轻量级统一建模用于判别式阅读理解
提出了轻量级的词性增强迭代协同网络(POI-Net),作为整体辨别性机器阅读理解的第一次尝试,旨在统一处理各种辨别性机器阅读理解任务,结果表明这种设计能够在不引入更多参数的情况下,有效地提高了模型在四个辨别性机器阅读理解基准测试上的性能。
- VLSP 2021 - ViMRC 挑戰賽:越南機器閱讀理解
本文介绍了一个名为 UIT-ViQuAD 2.0 的越南文机器阅读理解数据集,它可以用于评估和研究机器阅读理解任务和相关任务,如问答、问句生成和自然语言推理。该数据集吸引了 77 个团队参与,其中表现最好的三个团队使用基于 Transfor - ACLAdaLoGN: 基于自适应逻辑图网络的推理型机器阅读理解
提出一种新的神经符号方法,用于解决包含逻辑推理的阅读理解题,通过输入文本单位之间的逻辑关系图,并辅以一个自适应逻辑图网络 (AdaLoGN) 来推断逻辑关系,从而实现神经和符号之间的相互加强,有效回答多项选择题。在 ReClor 和 Log - ACL通过了解所学来满足所需
通过评估模型的能力,并在此基础上基于模型状态提供适当的训练数据,我们设计了一个可解释和多维度的 MRC 模型能力评估框架,并开发了 CBBC 策略,实现了基于模型能力的训练,从而最大化数据价值和提高训练效率。实验表明,我们的方法显著提高了 - 使用校准器提高机器阅读理解的鲁棒性
本文提出一种 MRC 模型后处理方法,依赖于 XGBoost 模型的校准器,结合手动特征和表示学习特征来改善模型的鲁棒性和性能表现,实验结果表明在针对敌对数据的情况下,模型的性能有超过 10% 的提升,同时也提升了原始和泛化数据集的性能。
- FedQAS:隐私感知的联邦学习机器阅读理解
为了解决目前 NLP 任务中缺乏大规模私有文本数据和知识共享的问题,研究人员提出了 FedQAS,这是一种隐私保护的机器阅读系统,可以利用大规模的私有数据进行机器阅读。该系统结合了 Transformer 模型和联邦学习技术,并使用 FED - ACL阅读理解模型对实体改名的鲁棒性分析
研究机器阅读理解模型对实体更名的鲁棒性,并发现实体更名对于 MRC 模型的预测准确率有显著影响。通过使用各种不同的源数据自动替换实体名称,我们在五个数据集和三个预训练模型结构上验证了该问题,并发现 SpanBERT 模型在实体更名下具有更好 - ACL追溯起源:具有共指关注的机器阅读理解
本文介绍了一种模拟人类阅读过程并利用实体的指代信息来增强预训练语言模型中的词嵌入以提高模型性能的方法,头两种微调方式,即在预训练模型后添加额外的编码器层以关注实体的指代提及或构建关系图卷积网络来建模实体间的关系。结果表明,在微调阶段明确加入 - EMNLP机器阅读理解任务中的数值推理:我们已经到达了吗?
本文研究了针对数字推理任务的自然语言处理模型表现,并发现现有的评估指标无法有效测量模型在这一任务上的进展。
- COLING语义角色标注的 MRC 框架
本篇论文提出了一种利用机器阅读理解框架来解决语义角色标注中谓词消除和论元标注之间语义联系不足问题的方法,将谓词消歧形式化为多项选择机器阅读理解的形式,然后利用所选谓词的语义角色构造查询从而解决论元标注。实验证明该方法优于先前的工作。
- EMNLP摘要、理论基础和立场:科学主张验证的联合模型
提出了一种基于机器阅读理解框架的 ARSJoint 方法,该方法可以联合学习三个任务模块,包括论文摘要检索、理由选择和立场预测,并通过提出在摘要检索的句子注意力分数和理由选择的预测输出之间的正则化项增强任务之间的信息互换和约束,实验结果在 - EMNLPRoR:长文档机器阅读理解中的逐字阅读
提出 RoR 方法,从块到文档扩展阅读范围,它包括块阅读器和文档阅读器,并且在两个基准测试 QuAC 和 TriviaQA 上进行的大量实验表明了 RoR 对于长文档阅读的有效性。
- ICLRKELM:在分层关系图上使用信息传递增强预训练语言表示的知识
该论文提出了一种基于微调过程的知识感知语言模型框架,将领域知识通过关系图嵌入到预训练语言模型中并进行动态更新,取得了比其他知识增强模型更显著的机器阅读理解任务的性能改进。
- EMNLP基于自监督和伪自监督的多方对话阅读理解中发言者和关键语句的预测
本文介绍了一种应对多方对话机器阅读理解中复杂讲话信息和嘈杂的对话语境等困难的方法,通过使用两种无需标注的自监督预测任务来隐式地建模讲话者信息流和抓取长对话中显著的线索。实验结果表明,本方法比竞争基准和当前最先进的模型更为有效。