Sep, 2019

用对数次数即可使浅层 ReLU 网络梯度下降达到任意小的测试误差

TL;DR该研究表明,通过梯度下降训练过度参数化的神经网络可以实现任意低的训练误差和测试误差。在两层 ReLU 网络中,只需要多项式量级的宽度和样本数量进行训练,可以达到较低的测试误差,并在无穷宽度下得出紧密样本复杂度分析。