神经网络与有理函数可以高效地相互逼近。对于任何 ReLU 网络,存在一个具有 $O (polylog (1/ε))$ 次的有理函数,其与该网络的误差为 ε。同样对于任何有理函数,都存在一个大小为 $O (polylog (1/ε))$ 的 ReLU 网络,其与该函数的误差也为 ε。与之相反,即便是简单的 ReLU 都需要多项式级别的次数来逼近,当将 ReLU 网络转换为上述有理函数时,隐藏的参数会呈指数级增长,这是由具有紧密上界的分层结构实现的。
Jun, 2017
该论文研究了深度神经网络的近似和表达能力,证明了神经网络在目标应用中比传统的非线性近似方法具有更强的近似能力,其中逼近单变量函数的 ReLU 神经网络是研究的重点,然而,尚缺乏一种完全定量化神经网络近似能力的理论。
May, 2019
本文通过样条理论的角度展示了神经网络训练问题与函数的 Banach 空间有关,进一步论述了 ReLU 等激活函数的重要性,解释了神经网络设计与训练策略如何影响其性能,并为路径范数正则化及跳连等策略提供了新的理论支持。
Oct, 2019
本文研究深度神经网络对各种激活函数的表达能力,并证明可在任意有界集合上以稍大的常数精度近似任意激活函数的神经网络。
Jul, 2023
研究了深度神经网络与浅层网络的比较,发现对于大部分分段光滑函数,相对于浅层网络,深度神经网络可以使用更少的神经元来实现相同的函数逼近程度。
Oct, 2016
本文研究了与 ReLU 激活函数相关的功能深度神经网络的逼近能力,并在简单三角剖分下构建了连续分段线性插值。此外,还建立了所提出的功能深度 ReLU 网络的逼近速率,并在温和的正则条件下进行了分析,最终探究了功能数据学习算法的理解。
Apr, 2023
复杂的分段线性激活函数在浅层和深层卷积神经网络中比 ReLu 激活函数效果更好,并使用 PyTorch 进行结果比较。
Aug, 2023
本文研究了使用 ReLU 激活的浅层和深层人工神经网络的高维逼近能力,并且证明了使用深层 ReLU 人工神经网络可以解决简单逼近问题,而不能在多项式时间复杂度下使用浅层或不够深度的人工神经网络来解决。
Jan, 2023
研究一维 Lipschitz 函数的逼近中,深层 ReLU 网络比浅层网络更有效地逼近光滑函数,采用自适应深度 6 网络体系结构比标准浅层网络更有效。
通过研究激活函数对死神经元和有效秩大小的影响,本文提出了一个新的神经网络结构,并展示了在 Atari 领域中学习速度更快、死神经元减少和有效秩增加的结果。
Jun, 2024