基于注意力机制的卷积神经网络用于机器阅读理解
我们提出了一种新颖的神经注意力架构,以解决机器理解任务,例如针对文档回答填空式查询的问题。与之前的模型不同,我们不将查询折叠成单个向量,而是使用迭代交替注意机制,允许对查询和文档进行细粒度的探索。我们的模型在标准的机器理解基准测试中,例如 CNN 新闻文章和儿童书籍测试 (CBT) 数据集中,优于最先进的基线。
Jun, 2016
介绍了一种用于问答的端到端神经网络,名为 Query-based Attention CNN (QACNN),并在基于电影情节的数据集(MovieQA dataset)上实现 79.99% 的准确率,成为该数据集的最佳模型。
Sep, 2017
提出基于比较 - 聚合框架和两阶段注意力的机器阅读理解模型,在 MovieQA 问答数据集上取得了最新成果。通过生成对抗样本研究模型的限制和卷积神经网络与递归神经网络之间的差异,并通过分析与人类推理的差异来评估模型的泛化能力。
Aug, 2018
本文提出一种名为 QANet 的新型机器阅读和问答架构,它没有使用循环神经网络,而是仅由卷积神经网络和自注意力机制组成,可在训练和推理期间实现更快的速度,并在测试集上实现了 84.6 F1 得分,超过了最佳发布 F1 得分 81.8。
Apr, 2018
提出了一种基于注意力机制的卷积神经网络 (ABCNN),可用于模拟一对句子,将句子表示法相互考虑,从而获得 AS、PI 和 TE 任务上的最佳表现。
Dec, 2015
提出了一项新的任务 —— 自动理解口语内容,本文通过构造多层注意力机制的分层注意力模型(HAM)来提高自动理解口语内容任务的表现,并且通过考虑树状结构而不是顺序结构的表示方法,使得模型对 ASR 错误更加鲁棒。
Aug, 2016
本文介绍了双向注意力流 (BIDAF) 网络,它是一个多阶段分层过程,在不进行早期汇总的情况下,用双向注意力流机制表示不同粒度级别的上下文,并获得了查询感知的上下文表示。实验结果表明,该模型在 Stanford Question Answering Dataset (SQuAD) 和 CNN/DailyMail cloze 测试中取得了最先进的结果。
Nov, 2016
本文提出了基于注意力卷积网络的端到端场景文本识别方法,通过卷积神经网络 (CNN) 代替循环神经网络 (RNN) 来实现输入序列的上下文依赖关系的准确捕捉,提高了识别效率,并结合残余注意力模块进一步提高特征识别的准确性。该方法在多个数据集上验证结果显示了显著的性能优势。
Sep, 2017