Nov, 2015
整流网络的表现力
Expressiveness of Rectifier Networks
TL;DR研究表明,修正线性单元(ReLU)不仅可以改善梯度消失问题、实现高效反向传播,且在学习参数方面具有稀疏性;本文则从表现力的角度探究了ReLU网络的决策边界,并实验证明两层ReLU网络的决策边界可以被阈值网络广泛捕捉,而后者可能需要一个指数级别的更多的隐藏单元。此外,本文还提出了系数条件,将符号网络表示为ReLU网络的隐藏单元数量可以倍减。最后,作者通过对一些合成数据进行实验比较了ReLU网络和阈值网络及它们较小的ReLU网络的学习能力。