通过使用外部语言知识来作为 RNN 模型的显式信号,将文本序列图形化表示并进行无环子图分解,以实现 RNN 模型对长期依赖关系的建模,并应用于文本理解任务,实现新的 SOTA 效果。
Mar, 2017
本文提出了一种新的循环神经网络体系结构 Recurrent Memory Network(RMN),不仅能够放大循环神经网络的作用,而且有助于我们理解其内部功能并发现数据中的潜在模式。在语言建模和句子完成任务上展示了 RMN 的强大性能。在长句完成挑战中,RMN 的准确性为 69.2%,超过了以前的最新技术水平。
Jan, 2016
本文介绍了一种具有循环注意力模型的神经网络,该模型可以扩展到可能很大的外部存储器,并被应用于各种任务,如(合成)问答和语言建模。同时,本文展示了多个计算步骤(跳数)的关键概念可以提高性能表现。
Mar, 2015
本文提出了一种基于可视化分析的方法,通过理解和比较用于自然语言处理的循环神经网络模型,包括基于各个隐藏状态单元对输入文本的响应和相似性进行 聚类和可视化,以及通过基于聚合信息的图标序列可视化分析 RNN 的隐藏状态的行为,实验结果表明该方法在领域专家的案例研究和评论中具有可用性和有效性。
Oct, 2017
本文旨在研究对于资源贫乏的语言的快速语言注释工具的发展,我们采用递归神经网络模型实验了多种跨语言注释映射方法。我们提出了一种真正的多语言标记器方法,并通过使用平行语料库证实了其有效性和通用性。
Sep, 2016
本文介绍了一种用于解决长期依赖的神经网络结构 —— 循环神经网络,并通过对语言建模等实验得出其同 LSTM 网络有着类似的性能表现。
Dec, 2014
本文研究了基于循环神经网络(RNN)的提及检测系统的鲁棒性及其在信息提取中的应用,表明在英语的普通或跨领域的情况下,RNNs 不仅在通用情况下优于之前报告的最佳系统(最多可达 9%的相对错误降低),而且在荷兰语中表现出的命名实体识别相似任务中,RNNs 比传统方法显著优越(最多可达 22%的相对错误降低)。
Feb, 2016
本文研究了将深度网络的多层表示与强大的 RNN 模型相结合的模型 - 深度递归神经网络,通过合适的正则化和端到端的训练方法,该模型在 TIMIT 语音识别基准测试中获得了最佳记录得分 17.7%。
Mar, 2013
本文提出了基于 TopicRNN 的语言模型,它结合了 RNN 和潜在主题模型的优点,能够捕捉本地(句法)和全局(语义)依赖关系,并更好地预测单词。实证结果表明,TopicRNN 在单词预测方面优于现有的上下文 RNN 基线,并且可以作为无监督特征提取器用于情感分析。
Nov, 2016
本文提出了一种基于循环神经网络和长短时记忆单元的句子嵌入模型,该模型能够自动侦测句子中关键词和主题,从而进行网络文档检索等艰难的语言处理任务,并在性能上显著优于现有的先进方法。
Feb, 2015