S 形修正线性激活单元的深度学习
本文通过评估不同类型的修正线性单元 rectified activation functions(包括:标准修正线性单元(ReLU),泄漏修正线性单元(Leaky ReLU),参数修正线性单元(PReLU)以及随机泄漏修正线性单元(RReLU))在图像分类任务中的表现,结论表明,对修正激活单元中的负部分引入非零斜率可以始终改善结果,从而推翻了稀疏性是 ReLU 良好性能的关键的常见信念。另外,在小规模数据集上,使用确定性的负斜率或学习固定斜率都容易过拟合,使用随机斜率则更为有效。通过使用 RReLU,我们在 CIFAR-100 测试集上实现了 75.68%的准确度(无多次测试或集合)。
May, 2015
本文提出了一种称为灵活整流线性单元的新的激活函数,通过重新设计修正线性单元的修正点作为可学习参数,FReLU 扩展了激活输出的状态,使网络收敛到负值,提高了表现,结果表明该方法在各种网络结构上都能快速收敛并获得更高的表现,尤其在图像分类方面表现突出。
Jun, 2017
本文通过样条理论的角度展示了神经网络训练问题与函数的 Banach 空间有关,进一步论述了 ReLU 等激活函数的重要性,解释了神经网络设计与训练策略如何影响其性能,并为路径范数正则化及跳连等策略提供了新的理论支持。
Oct, 2019
本文研究使用带有 ReLU 的深度神经网络能够代表的函数家族,提供了一个训练一个 ReLU 深度神经网络的一种算法,同时提高了在将 ReLU 神经网络函数逼近为浅层 ReLU 网络时已知下限的上界,并证明了这些间隙定理。
Nov, 2016
本文提出了一种新的随机梯度下降算法,利用随机噪声扰动,无需任何假设于数据分布、网络大小和训练集大小,就能够证明地达到单隐藏层 ReLU 网络的全局最优性,同时提出了一些一般的泛化保证,此外,数值测试结果也验证了算法和理论的实用性。
Aug, 2018
本文研究了与 ReLU 激活函数相关的功能深度神经网络的逼近能力,并在简单三角剖分下构建了连续分段线性插值。此外,还建立了所提出的功能深度 ReLU 网络的逼近速率,并在温和的正则条件下进行了分析,最终探究了功能数据学习算法的理解。
Apr, 2023
本研究介绍了在深度神经网络中使用修正线性单元作为分类函数来预测类别,通过将神经网络中的倒数第二层的输出与权重参数相乘得到原始分数,再使用修正线性单元函数进行阈值处理,最后通过 argmax 函数得到分类预测。
Mar, 2018
本研究从两个方面研究了基于修正线性单元(rectifier)的神经网络在图像分类方面的应用:首先,本文提出了一种广义化的参数修正线性单元(PReLU)来改进模型拟合;其次,本文提出了一种健壮的初始化方法来考虑线性单元的非线性,使我们能够直接从头开始训练极深层的网络。通过使用我们提出的 PReLU 网络,我们在 ImageNet 2012 数据集上实现了 4.94% 的 top-5 测试错误率,相对于 ILSVRC 2014 的冠军 GoogLeNet 的 6.66%,这是一个 26%的相对改进。根据我们的知识,我们的结果是首次在这个视觉识别挑战中超越了人类水平表现(5.1%,Russakovsky 等)。
Feb, 2015
通过第二阶 B 样条小波的灵感,我们给深度神经网络 (DNN) 每一层的 ReLU 神经元引入一组简单的约束以修正其谱偏差,从而实现对各种隐式神经表示任务的有效使用。通过实验证明,与普遍观点相反,基于只包含 ReLU 神经元的 DNN 可以学习出最先进的隐式神经表示。我们利用最近关于 ReLU 神经网络学习函数类型的理论工作,提供了一种量化学习函数规则性的方法,为 INR 架构中的超参数选择提供了有原则的方法。通过在信号表示、超分辨率和计算机断层扫描等领域进行实验,我们验证了我们方法的多样性和有效性。所有实验的代码可以在此 URL 中找到。
Jun, 2024