Aug, 2019

Mish:一种自正则化非单调激活函数

TL;DR本研究提出了一种名为 Mish 的自正则非单调激活函数,其数学公式为:$f (x)=x anh (softplus (x))$。我们通过在几个知名基准测试中验证证实该函数的有效性,并观察到数据增强技术对 ImageNet-1k 和 MS-COCO 等基准测试的积极作用。同时,我们还对 Mish 与 Swish 函数族的数学公式进行了探讨,并提出了一种直观的理解方式,即 Mish 的一阶导数行为可能作为一个正则化器帮助深度神经网络的优化,代码可在该网站公开获取。