Oct, 2018

小型 ReLU 网络具有强大的记忆能力:记忆容量的严密分析

TL;DR研究了 ReLU 网络的有限样本表达能力,证明了 3 层 ReLU 网络可以通过利用深度,并需要大约根号 N 个节点即可完美记忆大多数 N 个数据点,并证明大约根号 N 个节点是记忆 N 个数据点的必要和充分条件,同时证明当 W = Omega(N)时,L 层网络的带权参数可以记忆 N 个数据点。在全局位置假设下分析了负残差网络的记忆能力,并研究了随机梯度下降的动力学,证明了当在经验风险的记忆全局最小值附近初始化时,SGD 可以很快找到风险更小的附近点。