本文介绍了一种称为动态卷积神经网络的卷积架构,它使用动态k-Max池化进行句子的语义建模,并通过四项实验(二进制和多类情感预测,六路问题分类和推特情感预测)展示了出色的表现。
Apr, 2014
本文介绍了一种新的学习模型 - 记忆网络,利用推理组件和长期记忆组件共同学习。这些模型可以用于问答型任务中,长期记忆作为动态知识库,输出为文本响应。在评估中表明记忆网络模型在问答中具有强大的推理能力。
Oct, 2014
本文介绍了一种具有循环注意力模型的神经网络,该模型可以扩展到可能很大的外部存储器,并被应用于各种任务,如(合成)问答和语言建模。同时,本文展示了多个计算步骤(跳数)的关键概念可以提高性能表现。
Mar, 2015
该论文研究了多任务和迁移学习对简单问题回答的影响,提出了一个新的包含10万个问题的数据集,并在Memory Networks框架下成功训练了系统来回答问题。
Jun, 2015
本文介绍一种基于自然语言字符串的问答模型,适用于图像和结构化知识库,通过可组合模块自动组装神经网络,并通过强化学习来学习这些模块的参数,同时只需要(世界、问题、答案)三元组作为监督,我们的方法(称为动态神经模型网络)在视觉和结构化领域的基准数据集上取得了最先进的结果。
Jan, 2016
本文通过分析动态记忆网络并提出多项改进,包括一种新的图像输入模块,实现在缺乏支持事实的情况下回答问题,该新型DMN + 模型成功应用于视觉问答数据集和文本问答数据集上,且无需支持事实监督。
Mar, 2016
论文提出了一种新的分层记忆网络(Hierarchical Memory Networks, HMN),它利用注意力机制在句子级别和单词级别的记忆上分别进行推理,以处理在答案中出现较少或不知道的词汇,并在实验中证明其表现优于记忆网络。
Sep, 2016
我们提出了动态协同注意网络(DCN)来解决深度学习模型在问题回答中可能会遇到局部极大值的问题,并在Stanford问题回答数据集上将准确率从71.0% F1提高到75.9% F1,使用DCN合奏能够获得80.4% F1。
Nov, 2016
基于强化学习和词向量,提出了一种可以高效处理长篇文档的问答框架,该框架结合了快速筛选相关句子和精读相关句子的策略,并在Wikireading的一个挑战性子集和一组新的数据集上实现了最新的性能,同时使模型的速度提高3.5倍至6.7倍。
本文借鉴了人类记忆的机制,提出一种新的记忆模型,在处理输入时进行了排练和预测以记住重要信息,成功应用于问题回答数据集并得到了重大改进。
May, 2023