BriefGPT.xyz
Ask
alpha
关键词
dying relu
搜索结果 - 2
深且窄的前馈神经网络的改进权重初始化
通过引入新的权重初始化方法,本论文证明了所提出的初始权重矩阵的特性,展示了这些特性如何促进信号向量的有效传播,并通过一系列实验和与现有方法的比较展示了新的初始化方法的有效性。
PDF
8 months ago
参数泄漏双曲正切:一种用于深度学习的新型混合激活函数
本文在深度神经网络中提出了 Parametric Leaky Tanh(PLTanh)作为一种新的混合激活函数,结合了 Tanh 和 Leaky ReLU 激活函数的优势,通过保证负输入的梯度非零,解决了 'dying ReLU' 问题,并
→
PDF
a year ago
Prev
Next