寻找激活函数
本文通过对 21 种激活函数进行了首次大规模比较,并发现所谓的惩罚性 tanh 函数在 8 种不同的自然语言处理任务中表现最为稳定,可替换 LSTM 细胞中的 sigmoid 和 tanh 门,在具有挑战性的自然语言处理任务中实现了 2 个百分点的改进。
Jan, 2019
提出了一种新的激活函数 Piecewise Linear Unit,它可以学习专门的激活函数,并在大规模数据集上获得 SOTA 性能,比 Swish 在 ImageNet 分类数据集上分别提高了 0.9%/0.53%/1.0%/1.7%/1.0% 的 top-1 准确率,此外 PWLU 易于实现且在推理方面高效。
Apr, 2021
本文通过样条理论的角度展示了神经网络训练问题与函数的 Banach 空间有关,进一步论述了 ReLU 等激活函数的重要性,解释了神经网络设计与训练策略如何影响其性能,并为路径范数正则化及跳连等策略提供了新的理论支持。
Oct, 2019
本文通过评估不同类型的修正线性单元 rectified activation functions(包括:标准修正线性单元(ReLU),泄漏修正线性单元(Leaky ReLU),参数修正线性单元(PReLU)以及随机泄漏修正线性单元(RReLU))在图像分类任务中的表现,结论表明,对修正激活单元中的负部分引入非零斜率可以始终改善结果,从而推翻了稀疏性是 ReLU 良好性能的关键的常见信念。另外,在小规模数据集上,使用确定性的负斜率或学习固定斜率都容易过拟合,使用随机斜率则更为有效。通过使用 RReLU,我们在 CIFAR-100 测试集上实现了 75.68%的准确度(无多次测试或集合)。
May, 2015
本研究介绍一种可训练的混合激活函数方案,Adaptive Blending Units(ABUs),相比与传统方法具有自适应调整比例的能力,在实验中证明了 ABUs 和自适应缩放在训练效率等方面的优势,同时也探讨了其原理。
Jun, 2018
这篇论文研究了深度神经网络的权重初始化和激活函数对其训练性能的影响,证明了边缘混沌状态具有优异的表现,同时提出了一类叫做 Swish 的激活函数,可以优化信息传递。
May, 2018