NIPSJun, 2015

使用无界记忆学习传导

TL;DR使用设计成类似于机器翻译等实际转换问题的合成语法,我们探索了深度循环神经网络的表达能力并提出了新的基于记忆的循环网络,实现了传统数据结构(如堆栈、队列和双端队列)的连续可微分模拟。我们证明,这些架构表现出卓越的泛化性能(generalisation performance)并且通常能够学习到生成算法。