Aug, 2021

SERF:使用 log-Softplus ERror 激活函数实现更好的深度神经网络训练

TL;DR提出了一种自我调节且非单调的激活函数 Serf,该函数可大幅提高神经网络的性能,在计算机视觉等多种任务中表现优异,深层网络中效果更为显著。与其他常用激活函数相比,Serf 更兼容各种深度、复杂度、优化器、学习率、批量大小、初始化器和节点丢弃率等方面的设置,理论上表现修正了基于 Swish 函数的 Mish 函数的先决条件函数可充当的有效性,通过数学关系证明了 Swish 与 Serf 之间的关系,为深度学习以及神经网络的未来发展提供新思路。