使用修正线性单元(ReLU)的深度学习
本文研究使用带有 ReLU 的深度神经网络能够代表的函数家族,提供了一个训练一个 ReLU 深度神经网络的一种算法,同时提高了在将 ReLU 神经网络函数逼近为浅层 ReLU 网络时已知下限的上界,并证明了这些间隙定理。
Nov, 2016
本文通过样条理论的角度展示了神经网络训练问题与函数的 Banach 空间有关,进一步论述了 ReLU 等激活函数的重要性,解释了神经网络设计与训练策略如何影响其性能,并为路径范数正则化及跳连等策略提供了新的理论支持。
Oct, 2019
本文提出利用自动搜索技术发现新的激活函数。通过详尽和强化学习的结合搜索,发现了多个新型激活函数,其中最佳的发现激活函数(称为 Swish)在许多困难数据集上比 ReLU 更有效。
Oct, 2017
本文提出了一种称为灵活整流线性单元的新的激活函数,通过重新设计修正线性单元的修正点作为可学习参数,FReLU 扩展了激活输出的状态,使网络收敛到负值,提高了表现,结果表明该方法在各种网络结构上都能快速收敛并获得更高的表现,尤其在图像分类方面表现突出。
Jun, 2017
通过实验证明修正线性单元(ReLU)激活函数在生成对抗性样本方面的不足,我们提出了一种改进版本的 ReLU 函数,以提高对抗性样本的鲁棒性,并通过对抗训练进一步增强了我们的自定义模型相比于通用模型的鲁棒性。
May, 2024
本文通过评估不同类型的修正线性单元 rectified activation functions(包括:标准修正线性单元(ReLU),泄漏修正线性单元(Leaky ReLU),参数修正线性单元(PReLU)以及随机泄漏修正线性单元(RReLU))在图像分类任务中的表现,结论表明,对修正激活单元中的负部分引入非零斜率可以始终改善结果,从而推翻了稀疏性是 ReLU 良好性能的关键的常见信念。另外,在小规模数据集上,使用确定性的负斜率或学习固定斜率都容易过拟合,使用随机斜率则更为有效。通过使用 RReLU,我们在 CIFAR-100 测试集上实现了 75.68%的准确度(无多次测试或集合)。
May, 2015
本文提出了一种能够 SReLU 在深层神经网络中充分学习凸函数和非凸函数的网络。实验结果表明,与其他激活函数相比,SReLU 可以显著提高卷积神经网络的性能。
Dec, 2015
本文研究了针对常用的修正线性单元(ReLU)激活函数的线性化方法,为将神经网络模型与 ReLU 激活函数结合的优化问题提供了有效解决工具。
Oct, 2023
本文提出了一种新的随机梯度下降算法,利用随机噪声扰动,无需任何假设于数据分布、网络大小和训练集大小,就能够证明地达到单隐藏层 ReLU 网络的全局最优性,同时提出了一些一般的泛化保证,此外,数值测试结果也验证了算法和理论的实用性。
Aug, 2018