BriefGPT.xyz
Ask
alpha
关键词
exponential linear unit
搜索结果 - 4
神经网络激活函数的经验损失景观分析
此研究对与神经网络有关的损失景观进行了实证调查,发现修正线性单元产生最凸的损失景观,而指数线性单元产生最不平坦的损失景观,且表现出优越的泛化性能。
PDF
a year ago
深度卷积神经网络参数化的指数线性单元
提出了一种参数化 ELU 激活函数的方法以学习 CNN 中每层的恰当激活形状,实验结果表明,参数化的 ELU 在目标识别任务中相对误差较小,性能更优。
PDF
8 years ago
带有指数线性单元的深度残差网络
本文旨在指出在深度卷积神经网络中引入跳过连接从而解决挥发的渐变问题的新方案,并提出将指数线性单元用于残差网络,以显著减小测试误差。
PDF
8 years ago
ICLR
指数线性单元(ELUs)加速和提高深层网络学习的准确性
引入了 “指数线性单元”(ELU),可以提高深度神经网络的学习速度和分类准确性,相较于其他激活函数,ELU 具有更好的学习特征和更低的计算复杂度,能够在输入数据中编码特定现象的存在程度,并在实验中取得比其他激活函数更快的学习和更好的泛化表现
→
PDF
9 years ago
Prev
Next