- Kosmos-2.5: 一个多模态的才华模型
Kosmos-2.5 是一个多模式文本密集图像的机器阅读模型,能够生成带有空间感的文本块并以 markdown 格式产生结构化文本输出,通过 Transformer,任务特定的提示和灵活的文本表示来实现统一的多模式文本功能,可以适应不同提示 - LUKE-Graph: 基于 Transformer 的门控关系图注意力模型用于完形填空阅读理解
该论文提出了一种基于 LUKE 模型和关系图注意力机制的 LUKE-Graph 模型,将实体与关系进行异构图建模,以实现预训练模型中的先前知识加入,取得了 ReCoRD 数据集中常识推理方面最好的表现。
- 机器阅读何时需要分解?
研究使用多步推理和分解复杂问题在机器阅读领域的作用,发现在小数据集的情况下,分解可以提高准确匹配得分,但在数据集超过几百个样例时,分解则毫无帮助。
- ACL阅读前先生成!使用机器阅读实现忠实的长篇问答
我们提出了一种新的端到端框架,用于解决长篇问答的生成问题,重点是如何生成更加真实准确的答案。通过增加细粒度的相关信息来强化生成模型,实验结果表明我们的方法比强基线模型在自动和人工评估指标上表现更好,并且能够生成流畅,相关且更加真实准确的答案 - 交互代理增强搜索引擎
本文介绍了设计搜索代理的成功步骤,通过机器学习元策略来迭代查询精细化。文章提出了一种新颖的方法,使用机器阅读辅助挑选查询结果的精炼术语,使代理能够通过简单而有效的搜索操作对查询和搜索结果进行细粒度和透明的控制。通过自主学习,利用基于 Tra - IJCAILogiQA:面向机器阅读理解的逻辑推理挑战数据集
通过构建名为 LogiQA 的全面数据集,了解了人类逻辑推理能力方面的基本能力在机器阅读中如何得到充分研究。结果表明,最先进的神经模型远不及人类的水平。其数据集也可作为深度学习 NLP 环境下重新研究逻辑 AI 的基准。
- 税法蕴涵推理与问答的法规推理数据集
研究表明,直接应用机器阅读模型在条例推理过程中的性能不佳,需要通过解决法律领域的挑战来发展在自然语言处理上的模型。
- EMNLPMRQA 2019 共享任务:阅读理解通用性评估
在 Machine Reading for Question Answering (MRQA) 2019 shared task 中,我们通过将 18 个不同的 question answering 数据集调整并统一格式来评估阅读理解系统的 - EMNLP揭示语义检索对大规模机器阅读的重要性
本文提出管道系统及语义检索中间层制定通用设计指南。在事实检查和开放领域多跳 QA 中,该系统取得了表现。统计分析表明,中间层语义检索提高了上游信息的筛选效率,下游建模的数据质量,实现了学习上下文逻辑结构的机器阅读。
- ACL通过阅读进行对话:基于需求的机器阅读的内容丰富的神经对话
我们提出了一种新的端到端方法,用于内容丰富的神经会话,它将响应生成和按需的机器阅读共同建模,通过在飞行时向对话模型提供相关的长形文本作为外部知识源,每次进行问答式阅读来响应每个对话轮换,支持进一步的知识基础会话研究,我们介绍了一个新的基于外 - 检索与阅读:信息检索和阅读理解的多任务学习
本研究提出一种简单而有效的方法,通过使用监督多任务学习,将 IR 和 RC 任务结合起来,以考虑答案跨度来训练 IR 组件,实现大规模机器阅读,从而取得了最先进的表现。
- EMNLP对话机器阅读中的自然语言规则解释
研究了机器阅读中的问题回答问题,并提出了基于背景知识的规则解释与应用任务,开发了众包策略进行实例收集,评估了基于规则和基于机器学习的基线表现,结果表明不需要背景知识时具有良好的结果,需要背景知识时存在改进空间。
- EMNLP深层概率逻辑:一种间接监督的统一框架
本文提出了一种用深度学习和概率逻辑构成的深度概率逻辑(DPL)框架,将标记决策建模为潜变量,并使用变分 EM 学习概率逻辑中的不确定公式权重,从而实现间接监督,通过生物医学机器阅读的实验证明了该方法的可行性。
- ACLJack the Reader - 机器阅读框架
Jack 是一个用于机器阅读的框架,提供了一系列有用的基元操作以及易于模型比较和复制的单一任务框架,目前支持包括问题回答、自然语言推理和链接预测等多个任务,旨在提高研究效率和代码重用。
- ACL基于 SQuAD 的神经问答模型比较分析
本文通过定量和定性分析现有端到端神经模型在斯坦福问答数据集上的结果,旨在理解和比较其特性,以迈向实现在多个领域中的泛化能力。研究发现,预测错误反映了某些模型特定偏差,本文对此进行了进一步讨论。
- ACL基于目标的方面情感分析的延迟记忆更新的循环实体网络
提出了一种利用外部 “存储链” 和延迟更新机制来跟踪实体的新颖模型,用于特定方面的情感分析任务。实验结果表明,相比于现有的模型,该模型在使用外部知识库的情感分析任务中表现出了显著的改进。
- ICLRQANet: 将局部卷积和全局自注意力相结合用于阅读理解
本文提出一种名为 QANet 的新型机器阅读和问答架构,它没有使用循环神经网络,而是仅由卷积神经网络和自注意力机制组成,可在训练和推理期间实现更快的速度,并在测试集上实现了 84.6 F1 得分,超过了最佳发布 F1 得分 81.8。
- 利用 VerbNet 预测程序文本中动作的影响
使用语义词汇表 (Semantic Lexicon) 构建规则库并结合常识知识,采用基于模拟的方法进行机器阅读的研究。实验结果表明,该方法在描述过程方面的任务上优于两个强基线阅读理解方法 (read comprehension baseli - ACL训练用于开放域问答的排名函数
该研究提出了两个神经网络排序器,用于评分不同段落是否包含特定问题的答案,进一步分析了语义相似性与单词级相关性匹配在开放域 QA 中的相对重要性。
- 门控端到端记忆网络
本文提出了一种新的、受计算机视觉中连接快捷原则启发的端到端可训练内存网络 (End-to-End trainable Memory Networks) 结构 ——Gated End-to-End trainable Memory Netwo