本文通过样条理论的角度展示了神经网络训练问题与函数的 Banach 空间有关,进一步论述了 ReLU 等激活函数的重要性,解释了神经网络设计与训练策略如何影响其性能,并为路径范数正则化及跳连等策略提供了新的理论支持。
Oct, 2019
此研究对与神经网络有关的损失景观进行了实证调查,发现修正线性单元产生最凸的损失景观,而指数线性单元产生最不平坦的损失景观,且表现出优越的泛化性能。
Jun, 2023
使用自适应激活函数,设计了一种用于改进深层神经网络架构的分段线性激活函数,并在 CIFAR-10 等数据集上取得了最先进的表现。
Dec, 2014
本文介绍了两种自动学习不同激活函数组合的方法,并在三个标准数据集上与著名的体系结构进行了比较,显示了整体性能的显着改进。
Jan, 2018
本文探讨了神经网络中的有理激活函数,证明了有理神经网络比指数小的深度下的 ReLU 神经网络更高效地逼近光滑函数,并通过数值实验证明了有理激活函数的灵活性和平滑性使其成为 ReLU 的有吸引力的替代选择。
Apr, 2020
本文提出了一种使用进化搜索和梯度下降优化参数的方法来自动定制激活函数,实现对深度学习网络性能的可靠优化,验证结果表明该方法可以用作新任务的自动优化步骤。
Jun, 2020
本文在深度神经网络中研究常用的饱和函数:logistic sigmoid 和双曲正切 (tanh),发现使用 logistic sigmoid 函数训练困难的原因不仅在于其非零中心属性,还在于其在原点附近的斜率过大。通过适当的重新调整,logistic sigmoid 和 tanh 函数的性能相当。接着,通过在负部分加罚项可以改进 tanh 函数,形成了 “带惩罚的 tanh” 函数,其性能甚至优于 ReLu 和 Leaky ReLU 等饱和函数。本文的结果与之前的研究结论产生冲突,表明有必要进一步研究深度架构中的激活函数。
Feb, 2016
本文通过对 21 种激活函数进行了首次大规模比较,并发现所谓的惩罚性 tanh 函数在 8 种不同的自然语言处理任务中表现最为稳定,可替换 LSTM 细胞中的 sigmoid 和 tanh 门,在具有挑战性的自然语言处理任务中实现了 2 个百分点的改进。
Jan, 2019
本文在深度神经网络中提出了 Parametric Leaky Tanh(PLTanh)作为一种新的混合激活函数,结合了 Tanh 和 Leaky ReLU 激活函数的优势,通过保证负输入的梯度非零,解决了 'dying ReLU' 问题,并通过与 ReLU、LReLU 和 ALReLU 在五个不同数据集上的实证评估,展示了 PLTanh 的优势。
Aug, 2023
本论文综述了深度学习神经网络中激活函数的综合评估与调查,并对不同类型的激活函数进行了分类和性能比较。
Sep, 2021