May, 2024

比 ReLU 类激活函数显著更好的一类激活函数

TL;DR介绍了两种新的激活函数,Cone 和 Parabolic-Cone,相较于常用的 ReLU 和 Sigmoidal 类激活函数,在 CIFAR-10 和 Imagenette 两个基准测试中明显表现更好。这些激活函数在有限区间内为正,且在区间的端点处变为零,使得神经元可以更精细地将输入特征空间划分为正类和负类,通过较少的超带学习 XOR 函数,并且在基准测试中达到更高的准确率。此研究表明,在许多非线性真实世界的数据集中,相较于半空间,较少的超带可以实现数据的分离,并且 Cone 和 Parabolic-Cone 激活函数具有更大的导数,加速了训练过程。