Oct, 2018
小型ReLU网络具有强大的记忆能力:记忆容量的严密分析
Finite sample expressive power of small-width ReLU networks
TL;DR研究了ReLU网络的有限样本表达能力,证明了3层ReLU网络可以通过利用深度,并需要大约根号N个节点即可完美记忆大多数N个数据点,并证明大约根号N个节点是记忆N个数据点的必要和充分条件,同时证明当W = Omega(N)时,L层网络的带权参数可以记忆N个数据点。在全局位置假设下分析了负残差网络的记忆能力,并研究了随机梯度下降的动力学,证明了当在经验风险的记忆全局最小值附近初始化时,SGD可以很快找到风险更小的附近点。