探索关系:变换自适应激活函数与其他激活函数的比较
本文系统总结了神经网络领域可训练激活函数的不同模型,提出了这类函数的分类法,并探讨了其优缺点,进一步表明这些方法很多等价于添加使用固定(不可训练)激活函数和一些简单的局部规则来约束相应的权重层的神经元层,从而促进了神经网络的性能。
May, 2020
本文介绍了一种基于 Erf 函数和 ReLU 的新型激活函数 'ErfReLU',并比较了其与其他 9 种可训练激活函数在 CIFAR-10,MNIST 和 FMNIST 基准数据集上应用于 MobileNet,VGG16,ResNet 模型的性能分析。
Jun, 2023
本研究探讨了在 Transformer 架构中使用可学习激活函数 Rational Activation Function(RAF)的有效性,并表明基于 RAF 的 Transformer(RAFT)相对于使用 GELU 函数的原始 BERT 达到更低的验证复杂度。在低数据场景和全数据设置下的下游任务中,RAFT 都优于对应的模型,并且 RAF 的形状在不同的层之间有显著的差别,这为分析和解释预训练模型打开了新的研究方向。
Aug, 2022
本研究介绍一种可训练的混合激活函数方案,Adaptive Blending Units(ABUs),相比与传统方法具有自适应调整比例的能力,在实验中证明了 ABUs 和自适应缩放在训练效率等方面的优势,同时也探讨了其原理。
Jun, 2018
本文通过一项涵盖 400 种激活函数的大规模调查,提供了先前已发表的激活函数的最全面概述和系统化,并为当前对该函数族的理解进行更新。
Feb, 2024
通过引入具有偶次立方非线性的简单实现的激活函数,可以提高神经网络的准确性,而不需要大量的计算资源。这部分是通过收敛性和准确性之间的显著折衷来实现的。该激活函数通过引入可优化参数来增加标准 RELU 函数的自由度,从而调整非线性程度。通过与标准技术的比较,利用 MNIST 数字数据集量化了相关的准确性提升。
Mar, 2024
本研究对深度学习中使用的激活函数进行了调查和总结,强调了近期激活函数在深度学习应用方面的趋势。该总结对于选择适用于任何特定应用的最合适和适当的激活函数将起到帮助性作用。
Nov, 2018
通过信息熵的角度,本研究理论上证明了存在具有边界条件的最差激活函数,提出了基于熵的激活函数优化方法(EAFO),并从 ReLU 中推导出了一种新的激活函数 CRReLU。实验证明 CRReLU 在深度神经网络中表现优异,并在大型语言模型细调任务中展现出与 GELU 相比的卓越性能,显示其广泛的实际应用潜力。
May, 2024