BriefGPT.xyz
Ask
alpha
关键词
neural network activation function
搜索结果 - 2
稳定且鲁棒的深度学习方法:双曲正切指数线性单元(TeLU)
引入了 Hyperbolic Tangent Exponential Linear Unit(TeLU)作为一种新的神经网络激活函数,通过解决渐变消失和渐变爆炸问题,提高了稳定性和鲁棒性,在各种深度学习应用中表现出卓越的性能,将其视为潜在的
→
PDF
5 months ago
MM
高斯错误线性单元 (GELUs)
本文提出了高性能的神经网络激活函数 ——Gaussian Error Linear Unit(GELU),它的非线性性能优于 ReLU 和 ELU,并在所有涉及的计算机视觉、自然语言处理和语音任务中均实现了性能提升。
PDF
8 years ago
Prev
Next