Mar, 2019

Dying ReLU 和初始化:理论与数值例子

TL;DR本文研究深度神经网络中的 ReLU 激活函数在无限深度时可能出现神经元失活的问题,并提出一种新的不对称初始化方法以解决该问题。研究表明,该方法能够有效地预防神经元失活,并给出了实验结果进行验证。