- ACLCliCR: 一份用于机器阅读理解的临床病例报告数据集
利用临床病例和 100,000 个问题构建了医学领域的机器理解数据集,发现在需要运用领域知识和对象追踪的推理中,机器阅读器的表现较好,然而在识别省略信息和进行时空推理方面仍有较大提升空间。
- 机器阅读理解的多范围推理
本文介绍了一种新型的机器理解编码器 MRU,具有多级门控、并行端到端的学习门控向量、适用于短期和长期依赖关系三个特点,为机器理解提供高效处理文档、优化模型性能、建模文档内部关系的方法。通过在三个具有挑战性的 MC 数据集上进行广泛的实验,我 - SemEval-2018 第 11 项任务中的 HFL-RC 系统:用于常识阅读理解的混合多方面模型
本文介绍了一种基于神经网络的 Hybrid Multi-Aspects (HMA) 模型,用于改进机器阅读理解中的多选题预测,该模型在 SemEval-2018 任务 11 中取得了 83.97% 的准确度,超过了基准系统和其它竞争对手。
- MCScript:一种基于剧本知识评估机器理解能力的新数据集
该研究介绍了一种大规模的、关于叙事文本及其相关问题的数据集,用于进行需要运用常识以及剧本知识推理的机器理解任务,该数据集与现有的类似数据集的区别在于,它侧重于关于日常活动的故事,并且其问题需要常识知识或者更具体地说是剧本知识来回答。通过众包 - Yuanfudao 参加 SemEval-2018 任务 11:三路关注和关系知识在常识机器理解中的应用
本文描述了我们关于 SemEval-2018 任务 11 的研究:利用通识知识的机器阅读理解系统。我们使用三向注意力网络(TriAN)来模拟段落、问题和答案之间的交互,并通过来自通识知识概念网络的关系嵌入增强输入。因此,我们的系统在测试数据 - ACL构建跨文档多跳阅读理解数据集
该研究提出了一项新的任务,以鼓励模型跨多个文档进行文本理解并探究现有方法的限制。 该任务要求模型学习查找和组合证据,从而实现多跳(别名为多步)推理,但两个先前的竞争性模型都在选择相关信息方面遇到了困难。
- Smarnet: 让机器像人类一样阅读和理解
本文提出了一种用于机器理解阅读测试的科学方法,引入了新颖的词法控制机制,通过注意力机制和记忆网络指导机器进行交互式阅读,并添加检查层来细化答案以提高正确性,实验证明该方法在 SQuAD 和 TriviaQA 两个常用数据集上的表现优于大多数 - MEMEN:用记忆网络的多层嵌入进行机器阅读理解
本论文介绍了一种新型的神经网络架构 MEMEN,在 MC 风格的问题回答任务中取得了具有竞争力的结果,并在 TriviaQA 数据集上取得了最新成果。
- 机器阅读理解中的迁移学习的两阶段综合网络
使用 SynNet 技术构建的预训练模型进行跨领域机器阅读理解,将 F1 值提高至 44.3%,并使用多个模型预测融合,达到 46.6% 的 F1 值,在无提供的标注数据情况下,优于基线模型的 7.6%。
- 反思读者:门控多跳注意力推理
提出了一种基于 BiDAF 模型的 Ruminating Reader,通过增加多层注意力机制和信息融合组件来解决单次模型无法反思和纠正答案的问题。实验结果表明该模型在 SQuAD 数据集上显著优于基线模型,且超过了所有其他已发表的系统的性 - SearchQA:一份由搜索引擎中加强了语境的新问答数据集
该研究提出了一个名为 SearchQA 的数据集,该数据集用于机器理解和问答,并通过从 J! Archive 爬取的现有问题 - 答案配对及 Google 检索的文本片段进行扩充。在 SearchQA 中,包含了 14 万个问题 - 答案对 - ACL使用维基百科回答开放领域问题
本文提出使用维基百科作为唯一知识源来解决开放领域问题回答,提出了一种基于大二元哈希和 TF-IDF 匹配的搜索组件与训练于维基段落中检测答案的多层循环神经网络模型的结合方法,同时现有数据集的实验结果表明,这两个模块都是高度竞争力的,并且使用 - 基于神经网络的问答系统中问题理解与适应的探讨
本文通过在神经网络框架中密切模拟问题,引入句法信息来帮助编码问题,并将不同类型的问题和共享信息建模为适应性任务,并提出适应性模型,从而在 Stanford 问题回答数据集(SQuAD)上证明这些方法可帮助获得比竞争基准更好的结果。
- 结构化句法树嵌入在机器理解中的应用
本篇论文提出了一种基于结构嵌入的句法树算法框架 (SEST),利用句法树结构信息编码为向量表示,以增强机器阅读理解算法的性能。实验结果表明,该模型能够准确地识别句子的句法边界,并比基线算法更准确地提取句法连贯的答案。
- 机器阅读理解的多角度上下文匹配
在 SQuAD 数据集上,我们提出了一种多角度上下文匹配模型,它是一种端到端系统,可以直接预测文本段落中答案的起点和终点。我们的模型通过使用双向 LSTM 来编码问题和加权段落,利用多个角度将文本上下文与编码问题进行匹配,并生成一个匹配向量 - NewsQA: 一个机器阅读理解数据集
为了增加推理能力,我们通过四个阶段的过程收集有超过 10,000 篇 CNN 新闻文章的人类生成的问题 - 答案对的数据集 NewsQA,该数据集超过 100,000 个 QA 对,由众包工人提供,答案包含想对应文章的文本内容片段。人类的表 - 一个用于文本序列匹配的比较和聚合模型
本研究将词汇级别的比较和聚合作为一个一般的框架,以解决在 NLP 任务中,如机器理解、答案选择和文本蕴含等方面的序列匹配问题,并使用卷积神经网络来执行该框架。研究结果表明,某些基于逐元素操作的简单比较功能可以比标准神经网络和神经张量网络表现 - ICLR机器阅读理解的双向注意力流
本文介绍了双向注意力流 (BIDAF) 网络,它是一个多阶段分层过程,在不进行早期汇总的情况下,用双向注意力流机制表示不同粒度级别的上下文,并获得了查询感知的上下文表示。实验结果表明,该模型在 Stanford Question Answe - ICLR记忆增强神经网络在语言理解中的推理
本文介绍了一种新的基于记忆增强神经网络的计算机假设检验方法,并通过在语言理解任务中使用神经语义编码器 (NSE),提高了机器的理解准确度。
- KDDReasoNet:机器阅读理解任务中的停止阅读学习
本文描述了一种名为 Reasoning Network (ReasoNet) 的神经网络架构,用于机器理解任务。ReasoNets 通过多次迭代,利用查询、文档和答案之间的关系进行推理,运用强化学习动态地决定是否继续理解过程,已在多种数据集