连续可微的指数线性单元
引入了 “指数线性单元”(ELU),可以提高深度神经网络的学习速度和分类准确性,相较于其他激活函数,ELU 具有更好的学习特征和更低的计算复杂度,能够在输入数据中编码特定现象的存在程度,并在实验中取得比其他激活函数更快的学习和更好的泛化表现,是目前 CIFAR-100 最好的分类结果之一。
Nov, 2015
提出了一种参数化 ELU 激活函数的方法以学习 CNN 中每层的恰当激活形状,实验结果表明,参数化的 ELU 在目标识别任务中相对误差较小,性能更优。
May, 2016
引入了 Hyperbolic Tangent Exponential Linear Unit(TeLU)作为一种新的神经网络激活函数,通过解决渐变消失和渐变爆炸问题,提高了稳定性和鲁棒性,在各种深度学习应用中表现出卓越的性能,将其视为潜在的新标准。
Feb, 2024
本文提出了高性能的神经网络激活函数 ——Gaussian Error Linear Unit(GELU),它的非线性性能优于 ReLU 和 ELU,并在所有涉及的计算机视觉、自然语言处理和语音任务中均实现了性能提升。
Jun, 2016
本文提出了一种能够 SReLU 在深层神经网络中充分学习凸函数和非凸函数的网络。实验结果表明,与其他激活函数相比,SReLU 可以显著提高卷积神经网络的性能。
Dec, 2015
通过不可微的激活函数如 GELU 和 SiLU,我们能够在存在量化噪声的情况下,实现对卷积、线性和 Transformer 网络的分析和训练,从而提供实现高性能和可靠硬件的适当激活函数选择。
Feb, 2024
研究表明,修正线性单元(ReLU)不仅可以改善梯度消失问题、实现高效反向传播,且在学习参数方面具有稀疏性;本文则从表现力的角度探究了 ReLU 网络的决策边界,并实验证明两层 ReLU 网络的决策边界可以被阈值网络广泛捕捉,而后者可能需要一个指数级别的更多的隐藏单元。此外,本文还提出了系数条件,将符号网络表示为 ReLU 网络的隐藏单元数量可以倍减。最后,作者通过对一些合成数据进行实验比较了 ReLU 网络和阈值网络及它们较小的 ReLU 网络的学习能力。
Nov, 2015
本文研究使用带有 ReLU 的深度神经网络能够代表的函数家族,提供了一个训练一个 ReLU 深度神经网络的一种算法,同时提高了在将 ReLU 神经网络函数逼近为浅层 ReLU 网络时已知下限的上界,并证明了这些间隙定理。
Nov, 2016
本文研究使用一种名为 TaLU 的激活函数来提高深度学习模型的分类准确度,该激活函数是 Tanh 和 ReLU 的组合,能够缓解 ReLU 的梯度消失问题,并在 MNIST 和 CIFAR-10 数据集上实现了 0%至 6%不等的准确度提高。
May, 2023
本文提出动态整流器(DY-ReLU),将全局上下文编码到超函数中,并相应地适应分段线性激活函数,与其静态对应物相比,DY-ReLU 具有更强的表征能力,特别是对于轻量级神经网络,只需在 MobileNetV2 上应用 DY-ReLU,就可将 ImageNet 分类的 top-1 准确度从 72.0%提高到 76.2%,仅增加 5%的 FLOPs。
Mar, 2020