BriefGPT.xyz
Ask
alpha
关键词
leaky relu
搜索结果 - 3
泄漏 ReLU 在超参数化网络的训练和泛化中的影响
我们研究了具有广泛的漏斗修复线性统一函数的过参数神经网络的训练和泛化误差。我们对此类神经网络的训练误差的收敛速率和泛化误差进行了上界估计,并研究了这些上界与漏斗修复线性统一参数 alpha 的依赖关系。我们证明了 alpha 等于 - 1,
→
PDF
5 months ago
参数泄漏双曲正切:一种用于深度学习的新型混合激活函数
本文在深度神经网络中提出了 Parametric Leaky Tanh(PLTanh)作为一种新的混合激活函数,结合了 Tanh 和 Leaky ReLU 激活函数的优势,通过保证负输入的梯度非零,解决了 'dying ReLU' 问题,并
→
PDF
a year ago
卷积网络中修正的激活函数的实证评估
本文通过评估不同类型的修正线性单元 rectified activation functions(包括:标准修正线性单元(ReLU),泄漏修正线性单元(Leaky ReLU),参数修正线性单元(PReLU)以及随机泄漏修正线性单元(RReL
→
PDF
9 years ago
Prev
Next