Nov, 2018

随机梯度下降优化超参数化的深度 ReLU 网络

TL;DR研究如何使用 ReLU 激活函数、梯度下降和随机梯度下降来训练深度神经网络,证明在一定条件下,充分的随机权重初始化能够让这些方法在超参数化的深层 ReLU 网络上达到全局最小值。