Mar, 2024

非线性增强的自适应激活函数

TL;DR通过引入具有偶次立方非线性的简单实现的激活函数,可以提高神经网络的准确性,而不需要大量的计算资源。这部分是通过收敛性和准确性之间的显著折衷来实现的。该激活函数通过引入可优化参数来增加标准 RELU 函数的自由度,从而调整非线性程度。通过与标准技术的比较,利用 MNIST 数字数据集量化了相关的准确性提升。