Jul, 2020

无限宽度下的双层 ReLU 神经网络相图

TL;DR通过实验和理论方法,我们对两层 ReLU 神经网络在无限宽度极限下的动态状态及其与初始化超参数的依赖关系进行了完整表征,并绘制了相图。我们确定了相图中的三个区域:线性区、临界区和凝聚区,分别基于输入权重的相对变化。该相图将神经网络的训练行为及其隐式规范化的更系统性研究迈出了第一步。