标准化激活函数:迈向更好收敛
研究论文探讨了激活函数对过度参数化神经网络训练的影响,指出了平滑的激活函数在训练中的优势和尺寸较小的数据维度可能导致训练速度变慢的问题,并讨论了这些结果的应用和推广。
Aug, 2019
本文介绍了常见的非线性激活函数,并对它们的特点进行了评估。同时,分析了深层神经网络及其与权重初始化方法的关系,其中将特别关注节点的入度和出度对整个网络的影响。
Apr, 2018
通过引入具有偶次立方非线性的简单实现的激活函数,可以提高神经网络的准确性,而不需要大量的计算资源。这部分是通过收敛性和准确性之间的显著折衷来实现的。该激活函数通过引入可优化参数来增加标准 RELU 函数的自由度,从而调整非线性程度。通过与标准技术的比较,利用 MNIST 数字数据集量化了相关的准确性提升。
Mar, 2024
本文在深度神经网络中研究常用的饱和函数:logistic sigmoid 和双曲正切 (tanh),发现使用 logistic sigmoid 函数训练困难的原因不仅在于其非零中心属性,还在于其在原点附近的斜率过大。通过适当的重新调整,logistic sigmoid 和 tanh 函数的性能相当。接着,通过在负部分加罚项可以改进 tanh 函数,形成了 “带惩罚的 tanh” 函数,其性能甚至优于 ReLu 和 Leaky ReLU 等饱和函数。本文的结果与之前的研究结论产生冲突,表明有必要进一步研究深度架构中的激活函数。
Feb, 2016
本文研究了引入规范化层对神经网络的全局收敛速度和优化效果的影响,证明了在引入 Weight Normalization 后,具有 ReLU 激活函数的两层神经网络可以加速收敛。
Jun, 2020
本研究提出了一种名为 Sqish 的新型激活函数,作为现有激活函数的替代品,我们展示了它在分类、目标检测、分割任务和对抗性鲁棒性实验中的优越性,在 CIFAR100 数据集上,使用 ShuffleNet V2 模型在 FGSM 对抗攻击中,相较于 ReLU 取得了 8.21% 的改进,并且在 CIFAR100 数据集上,使用 ShuffleNet V2 模型进行图像分类,相较于 ReLU 取得了 5.87% 的改进。
Oct, 2023
提出一种基于自动化方法设计规范化层和激活函数的新方法来克服规范化 - 激活函数共用空间大的挑战。将它们统一为单个张量到张量计算图,并从基本数学函数开始演化其结构,最终发现了一组新的 norm-activation 层 EvoNorms,这些层的性能在不同的深度网络结构上都表现良好。
Apr, 2020