ICLRNov, 2015

采用 ReLU 非线性激活函数优化循环神经网络性能

TL;DR本文针对使用 ReLU 非线性函数的循环神经网络提出一种修改后的权重初始化策略,并通过三个长期时间结构遵循的玩具问题以及一个基准动作识别问题的实验结果证实了该策略的有效性。