Sep, 2018

训练 ReLU 神经网络的复杂度

TL;DR本文探讨了采用 ReLU 激活函数训练神经网络的复杂度问题,研究表明在神经元构架固定的情况下,两层 ReLU 神经网络的训练是 NP - 难问题,但在第一隐藏层提供足够的超参数时,可以通过多项式时间算法找到合适的权重。