NIPSNov, 2017

通过动态等向性在深度学习中复苏 Sigmoid 函数:理论与实践

TL;DR本文采用自由概率理论的强大工具来分析深度神经网络的输入输出雅可比矩阵的奇异值分布,研究了深度、权重初始化和非线性性之间的关系,发现深度为 ReLU 网络不能实现动态等距,而深度为 Sigmodial 网络只能通过正交权重初始化来实现等距,且正常初始化的深度 Sigmodial 网络学习效率远优于 ReLU 网络。