NIPSOct, 2017

扩张循环神经网络

TL;DR本研究提出了一种称为 DilatedRNN 的简单且有效的循环神经网络连接结构,它可以同时解决 RNN 在处理长序列时遇到的复杂依赖、梯度消失和爆炸的问题,还能够提高训练效率并匹配最先进技术,并且引入了一种适用于具有长跳跃连接的 RNN 的内存容量度量,证明了 DilatedRNN 相对于其他循环神经网络结构的优点。