May, 2020

关于均场极限下两层ReLU网络梯度下降训练的收敛性

TL;DR在均场模型下,用梯度下降训练双层ReLU网络时,我们描述了最小贝叶斯风险收敛的必要和充分条件。该条件不依赖于参数的初始化,只涉及神经网络实现的弱收敛,而不是其参数分布。