本研究总结了神经网络架构中几种非线性激活函数的使用情况,并对这些函数在 MNIST 分类任务上的效果进行了实证分析,以确定哪些函数能够产生最佳结果。基于这些结果,研究了构建具有不同数量隐藏层的深度架构以及使用不同的初始化方案对神经网络的影响。最终提供了一个最优的神经网络架构,可在 MNIST 分类任务中获得令人印象深刻的准确度。
Oct, 2017
本论文综述了深度学习神经网络中激活函数的综合评估与调查,并对不同类型的激活函数进行了分类和性能比较。
Sep, 2021
本文介绍了两种自动学习不同激活函数组合的方法,并在三个标准数据集上与著名的体系结构进行了比较,显示了整体性能的显着改进。
Jan, 2018
本文通过一项涵盖 400 种激活函数的大规模调查,提供了先前已发表的激活函数的最全面概述和系统化,并为当前对该函数族的理解进行更新。
Feb, 2024
使用自适应激活函数,设计了一种用于改进深层神经网络架构的分段线性激活函数,并在 CIFAR-10 等数据集上取得了最先进的表现。
Dec, 2014
本研究提出了一种名为 Sqish 的新型激活函数,作为现有激活函数的替代品,我们展示了它在分类、目标检测、分割任务和对抗性鲁棒性实验中的优越性,在 CIFAR100 数据集上,使用 ShuffleNet V2 模型在 FGSM 对抗攻击中,相较于 ReLU 取得了 8.21% 的改进,并且在 CIFAR100 数据集上,使用 ShuffleNet V2 模型进行图像分类,相较于 ReLU 取得了 5.87% 的改进。
Oct, 2023
复杂的分段线性激活函数在浅层和深层卷积神经网络中比 ReLu 激活函数效果更好,并使用 PyTorch 进行结果比较。
Aug, 2023
介绍了人工神经网络中激活函数的主要概念及其作用,讨论了各种激活函数类型、应用、限制和替代方案。
Apr, 2022
本文通过对 21 种激活函数进行了首次大规模比较,并发现所谓的惩罚性 tanh 函数在 8 种不同的自然语言处理任务中表现最为稳定,可替换 LSTM 细胞中的 sigmoid 和 tanh 门,在具有挑战性的自然语言处理任务中实现了 2 个百分点的改进。
Jan, 2019
该研究提出了一种理论上可靠的解决方案,用于跟踪计算机视觉应用中深度神经网络中的非线性传播,提供了详实的实验结果,突出了提出的亲和性评分的实用性及其潜在的广泛应用。