本文旨在提出一种基于循环神经网络的方法解决 factoid question answering 中的两个问题:检测问题中的实体和将问题分类为知识库中的关系类型,同时在 SimpleQuestions 数据集上取得了显著改进的结果。
Jun, 2016
本文采用记忆增强型神经网络,通过选择性地关注每个训练示例的内部和外部记忆块来预测视觉问题的准确答案。实验结果表明,所提出的算法在两个大规模基准数据集上具有优越的性能及与现有技术的比较。
Jul, 2017
本文研究深度学习模型,结合记忆组件或注意力机制进行问答任务。我们比较了三种模型:神经机器翻译、神经图灵机和记忆网络,用于一个模拟 QA 数据集。研究表明,注意力和记忆的组合有潜力解决某些 QA 问题。其中,本文是首个使用神经机器翻译和神经图灵机解决 QA 任务的研究。
Oct, 2015
本文介绍了一种新的学习模型 - 记忆网络,利用推理组件和长期记忆组件共同学习。这些模型可以用于问答型任务中,长期记忆作为动态知识库,输出为文本响应。在评估中表明记忆网络模型在问答中具有强大的推理能力。
Oct, 2014
本文描述了一个架构,利用原始外部知识,基于无监督学习的技术,使得更小的模型可以回答与事实有关的问题,其目的在于能够显式地添加知识,而无需进行大量的训练。
Nov, 2019
本论文提出了一种基于多任务学习的框架,通过引入指针设备的语义解析模型和新型类型感知实体检测模型,实现共享监督信号、减轻误差传播影响,并在大规模对话问答数据集上进行实验,将总体 F1 分数从 67%提升到 79%。
Oct, 2019
文章研究了问题回答领域(Question Answering)中各种算法模型以及增强数据方法,提出了基于 Attention-over-Attention 等方法的组合以及数据增强和集成策略,可在 SQuAD 等基准数据集上取得超人的表现。但在最新的自然问题基准数据集上,相对简单的 BERT 迁移学习方法取得了超过先前表现最优系统 1.9 F1 点的优异表现,并且添加集成策略进一步提高了 2.3 F1 点。
Sep, 2019
本文通过在神经网络框架中密切模拟问题,引入句法信息来帮助编码问题,并将不同类型的问题和共享信息建模为适应性任务,并提出适应性模型,从而在 Stanford 问题回答数据集(SQuAD)上证明这些方法可帮助获得比竞争基准更好的结果。
Mar, 2017
这篇论文提出了一个新的门控自注意力记忆网络方法,结合大规模在线语料库的简单迁移学习技术,在 TrecQA 和 WikiQA 两个标准答案选择数据集上取得了新的最先进结果。
本文借鉴了人类记忆的机制,提出一种新的记忆模型,在处理输入时进行了排练和预测以记住重要信息,成功应用于问题回答数据集并得到了重大改进。
May, 2023