- ACL面向指标的逻辑预训练 (IDOL):用于逻辑推理
本文提出了一种易于理解但非常有效的进一步预训练任务,IDOL(InDicator-Oriented Logic Pre-training),通过 6 种逻辑指示符和一个逻辑丰富的数据集 LGP(LoGic Pre-training)在逻辑上 - 基于提示学习和机器阅读理解的无触发器句子级事件检测
本文提出了一种无触发词的事件检测模型,通过阅读理解和提示学习将事件检测转化为两个塔模型,在 ACE2005 和 MAVEN 的两个事件检测基准数据集上,实验结果表明,与现有的基于触发词和无触发词的方法相比,所提出的方法可以取得竞争性的性能。
- COLING通过链接话语单元和关键词建立层次推理链模型进行阅读理解
本研究提出了一种基于全面图网络的逻辑推理方法,在上下文和单词层面处理上下文,通过层次交互机制建模节点级关系和类型级关系,以提高阅读理解系统的解释能力和理解复杂逻辑关系的能力。
- 知道怎么做和知道什么是 :用户手册机器阅读理解的新挑战
通过 TARA 图对用户手册进行表示,可以在各种类型问题上提高对用户手册的机器阅读理解能力,这一方法在应对复杂问题时具有巨大的潜力。
- 基于案例推理的机器阅读理解
提出了一种基于 CBR-MRC 的精确且可解释的答案提取方法,其利用相似问题之间的语义相似性来预测问题的答案,并在 NaturalQuestions 和 NewsQA 数据集上都取得了较高的准确率。
- ACLmPMR: 规模化的多语言预训练机器阅读器
mPMR 是一种新颖的多语言机器阅读理解 (MRC) 预训练方法,旨在指导多语言预训练语言模型 (mPLM) 在多种语言中执行自然语言理解 (NLU)(包括序列分类和跨度提取)。mPMR 通过 MRC 样式的预训练,直接继承多语言 NLU - EMBRACE: 评估和修改以提升 RACE
本文针对英语的机器阅读理解中的 RACE 数据集进行了详细的测试和分析,评估了数据集中多项选择问题的难度,并对基准文本做了注释。研究发现多数多项选择问题未能满足阅读理解任务的基本要求,同时发现基准文本的位置分布存在偏差,这可能对多项选择问题 - ACLSkillQG:学习为阅读理解评估生成问题
通过控制问题的理解类型提高机器阅读理解质量,本文提出了 $ extbf {$ exttt {SkillQG}$}$ 框架。在一个基于技能的层级模式中,根据不同能力的问题,通过迭代调用预训练语言模型来生成针对不同能力问题的精细化评估和提高模型 - NER-to-MRC: 命名实体识别完全作为机器阅读理解解决方案
利用机器阅读理解将命名实体识别作为一个解决问题,能够很好的解决大量额外数据收集和预训练的高成本挑战,展示了出色的性能提高并实现了最新的成果。
- NorQuAD: 挪威问答数据集
本文介绍了 NorQuAD 数据集,这是第一个用于机器阅读理解的挪威问答数据集,包含 4,752 个手动创建的问题和答案对。我们详细介绍了数据收集过程,并陈述了数据集的统计信息。我们还对数据集进行了多语言和挪威单语言语言模型的基准测试,并将 - 从文件中提取信息:实际场景中的问答与记号分类
通过与传统标记分类方法的比较,我们发现当处理较短、干净的实体时,最好使用基于标记分类的方法,而 QA 方法可以成为嘈杂环境或长实体用例的良好替代方案。
- 评估机器阅读理解模型对低资源实体重命名的鲁棒性
本研究旨在探究机器阅读理解模型对命名实体重命名的鲁棒性,尤其是对低资源地区如非洲的实体。通过创建一个被重命名的数据集 AfriSQuAD2 来测试模型的鲁棒性,并发现大模型相对于基础模型表现更好,而人类实体类型则高度挑战 MRC 模型的性能 - 面向越南语教育的多项选择阅读理解语料库
提出了 ViMMRC 2.0,结合多步骤的注意力神经网络和自然语言推理任务,对越南语文本进行了阅读理解测试,结果表明其在新数据集上的测试正确率最高可达 58.81%。
- ACL通过机器阅读理解无法回答的问题揭示越南语语言模型的缺陷
通过机器阅读理解任务全面分析现有越南语单语模型的语言优势与弱势,提出新的模型开发方向;同时也发现了越南语阅读理解基准测试中的人工错误,建议使用更高 - quality 的基准测试来追踪越南语阅读理解技术的进展。此外,作者还对先前的问题注释过 - 基于提示式机器阅读理解的临床概念和关系抽取
本文提出了一种基于提示的机器阅读理解(MRC)架构,能够解决临床概念抽取和关系抽取问题,在跨机构应用中表现良好,并使用转换器模型对其进行探索。在 2018 年国家 NLP 临床挑战和 2022 年 NLP 临床挑战的基准数据集上,该方法均取 - 中文阅读理解的自然回答生成
该研究构建了一个名为 Penguin 的新数据集,用于促进自然反应生成的 MRC 研究,并提供训练和测试场地。研究人员通过对机器阅读理解模型的测试,采用基于前缀提示的模型,证明了该模型的有效性。
- ACL未能回答问题对机器阅读理解模型鲁棒性的影响
本文研究了使用 SQuAD 2.0 中不可回答的问题对预先训练的语言模型进行微调,以提高其对抗攻击的鲁棒性。结果表明,在 SQuAD 2.0 上进行微调可以显著提高模型的鲁棒性,并且 SQuAD 2.0 还会影响模型学习到的内容。
- 将语义信息整合到 Retro-Reader 的草图阅读模块中,以提升越南机器阅读理解
本篇研究报告讲述 SemSRL 应用在预训练语言模型中以提高 Retro-Reader 在越南语阅读理解任务上的性能表现
- 重新思考多跳问答中的标签平滑
本论文系统分析了标签平滑法在多跳问题回答中的作用,并提出了一种专门为机器阅读理解任务设计的新型标签平滑技术 F1 smoothing,在 HotpotQA 数据集上取得了比复杂注意力机制模型等强基线模型更好的效果,结果表明标签平滑法在多跳问 - 从填空到理解:将预训练的语言模型改装为预训练的机器阅读器
我们提出了 Pre-trained Machine Reader (PMR),这是一种新方法,旨在将预训练的语言模型(PLMs)转换为机器阅读理解(MRC)模型,而无需获取标记数据, 显示出在包括提取问题回答和命名实体识别在内的提取任务上的