BriefGPT.xyz
Nov, 2016
循环神经网络的容量与可训练性
Capacity and Trainability in Recurrent Neural Networks
HTML
PDF
Jasmine Collins, Jascha Sohl-Dickstein, David Sussillo
TL;DR
通过实验证实了,所有常见的递归神经网络在仔细训练后达到了近乎相同的任务能力和单元容量边界,而许多以前的结果比较不同的递归神经网络结构主要是由于训练效果的差异而不是由于容量的差异驱动的。同时,作者还提出了两个新的递归神经网络结构,其中一个对于深度堆叠结构的训练比LSTM或GRU更容易。
Abstract
Two potential bottlenecks on the expressiveness of
recurrent neural networks
(RNNs) are their ability to store information about the task in their parameters, and to store information about the
input history
in t
→