Feb, 2020

神经网络中 ReLU 激活函数和 Softmax 输出层的逼近性能研究

TL;DR该研究论文扩展了通用近似理论,说明了使用 ReLU 激活函数和非线性 softmax 输出层的神经网络能够以任意精度逼近任何在 L1 空间中的函数,并且可用于解决实际的多类别模式分类问题中。此外,这是 softmax 输出层在神经网络中用于模式分类的第一个理论证明。