May, 2023

TaLU: 一种混合 Tanh 和 ReLU 的激活函数,用于增强神经网络

TL;DR本文研究使用一种名为 TaLU 的激活函数来提高深度学习模型的分类准确度,该激活函数是 Tanh 和 ReLU 的组合,能够缓解 ReLU 的梯度消失问题,并在 MNIST 和 CIFAR-10 数据集上实现了 0%至 6%不等的准确度提高。