优化 CNN-Bigru 性能:Mish 激活函数与 Relu 的对比分析
本研究提出了一种名为 Mish 的自正则非单调激活函数,其数学公式为:$f (x)=x anh (softplus (x))$。我们通过在几个知名基准测试中验证证实该函数的有效性,并观察到数据增强技术对 ImageNet-1k 和 MS-COCO 等基准测试的积极作用。同时,我们还对 Mish 与 Swish 函数族的数学公式进行了探讨,并提出了一种直观的理解方式,即 Mish 的一阶导数行为可能作为一个正则化器帮助深度神经网络的优化,代码可在该网站公开获取。
Aug, 2019
通过引入具有偶次立方非线性的简单实现的激活函数,可以提高神经网络的准确性,而不需要大量的计算资源。这部分是通过收敛性和准确性之间的显著折衷来实现的。该激活函数通过引入可优化参数来增加标准 RELU 函数的自由度,从而调整非线性程度。通过与标准技术的比较,利用 MNIST 数字数据集量化了相关的准确性提升。
Mar, 2024
提出了一种自我调节且非单调的激活函数 Serf,该函数可大幅提高神经网络的性能,在计算机视觉等多种任务中表现优异,深层网络中效果更为显著。与其他常用激活函数相比,Serf 更兼容各种深度、复杂度、优化器、学习率、批量大小、初始化器和节点丢弃率等方面的设置,理论上表现修正了基于 Swish 函数的 Mish 函数的先决条件函数可充当的有效性,通过数学关系证明了 Swish 与 Serf 之间的关系,为深度学习以及神经网络的未来发展提供新思路。
Aug, 2021
本文介绍了一种基于 Erf 函数和 ReLU 的新型激活函数 'ErfReLU',并比较了其与其他 9 种可训练激活函数在 CIFAR-10,MNIST 和 FMNIST 基准数据集上应用于 MobileNet,VGG16,ResNet 模型的性能分析。
Jun, 2023
通过信息熵的角度,本研究理论上证明了存在具有边界条件的最差激活函数,提出了基于熵的激活函数优化方法(EAFO),并从 ReLU 中推导出了一种新的激活函数 CRReLU。实验证明 CRReLU 在深度神经网络中表现优异,并在大型语言模型细调任务中展现出与 GELU 相比的卓越性能,显示其广泛的实际应用潜力。
May, 2024
该研究论文介绍了不同类型的激活函数对于深度学习的影响,提出了新的激活函数 APTx,其计算速度比 MISH 更快,但效果相近,同时可以有效减少深度学习的计算资源消耗。
Sep, 2022
本研究对深度学习中使用的激活函数进行了调查和总结,强调了近期激活函数在深度学习应用方面的趋势。该总结对于选择适用于任何特定应用的最合适和适当的激活函数将起到帮助性作用。
Nov, 2018