激活或不激活:学习定制化激活
本文提出利用自动搜索技术发现新的激活函数。通过详尽和强化学习的结合搜索,发现了多个新型激活函数,其中最佳的发现激活函数(称为 Swish)在许多困难数据集上比 ReLU 更有效。
Oct, 2017
通过引入具有偶次立方非线性的简单实现的激活函数,可以提高神经网络的准确性,而不需要大量的计算资源。这部分是通过收敛性和准确性之间的显著折衷来实现的。该激活函数通过引入可优化参数来增加标准 RELU 函数的自由度,从而调整非线性程度。通过与标准技术的比较,利用 MNIST 数字数据集量化了相关的准确性提升。
Mar, 2024
提出了一种新的激活函数 Piecewise Linear Unit,它可以学习专门的激活函数,并在大规模数据集上获得 SOTA 性能,比 Swish 在 ImageNet 分类数据集上分别提高了 0.9%/0.53%/1.0%/1.7%/1.0% 的 top-1 准确率,此外 PWLU 易于实现且在推理方面高效。
Apr, 2021
通过信息熵的角度,本研究理论上证明了存在具有边界条件的最差激活函数,提出了基于熵的激活函数优化方法(EAFO),并从 ReLU 中推导出了一种新的激活函数 CRReLU。实验证明 CRReLU 在深度神经网络中表现优异,并在大型语言模型细调任务中展现出与 GELU 相比的卓越性能,显示其广泛的实际应用潜力。
May, 2024
本文提出了一种名为 ASU-CNN 的卷积神经网络模型,使用新设计的激活函数 ASU,该函数具有非单调和振荡的特点,在不同的卷积层中通过特征图可视化检查了本文提出的模型的优化,该模型使用 Adam 进行优化,fine-tuned learning rate 等参数,实验结果表明了该模型在计算机视觉领域相关任务的计算可行性和有效性。在 CIFAR-10 分类方面,预测结果是非常有前途的。
May, 2023
本研究提出了一种名为 Sqish 的新型激活函数,作为现有激活函数的替代品,我们展示了它在分类、目标检测、分割任务和对抗性鲁棒性实验中的优越性,在 CIFAR100 数据集上,使用 ShuffleNet V2 模型在 FGSM 对抗攻击中,相较于 ReLU 取得了 8.21% 的改进,并且在 CIFAR100 数据集上,使用 ShuffleNet V2 模型进行图像分类,相较于 ReLU 取得了 5.87% 的改进。
Oct, 2023
本研究提出了一种新的方法,即 Sparse Activation Function Search(SAFS),结合了调整稀疏网络激活函数和独立的超参数优化(HPO)来提高稀疏神经网络的预测准确率。通过在多个数据集和深度神经网络模型上进行实验,结果显示,与默认的训练协议相比,特别是在高剪枝率下,在 LeNet-5、VGG-16 和 ResNet-18 中的准确率分别提高了 15.53%、8.88%和 6.33%。
May, 2023