使用修正线性单元理解深度神经网络
本文研究了深度修正线性单元网络关于宽度和深度同时逼近平滑函数的最优逼近误差特性,并且证明了多元多项式可以被宽度为 O(N)和深度为 O(L)的深 ReLUNetwork 逼近,而且证明了具有 O(N lnN)宽度和 O(L lnL)深度的深 ReLUNetwork 能够用近乎最优的逼近误差逼近 f∈ C^s ([0,1]^d)。
Jan, 2020
本文研究使用深层神经网络进行平滑函数的逼近,提出了基于经典多项式逼近理论的优化算法与框架,并发现使用修正功率单元的网络对于逼近平滑函数比使用修正线性单元的网络具有更好的表现,网络的大小也更为紧凑,适用于损失函数中涉及求导的场合。
Mar, 2019
本研究使用混合整数优化、多面体理论、热带几何等技术探究神经网络单隐藏层能否学习到所有函数的普适逼近定理,为可表示函数的类提供了数学支持。同时,解决了 Wang 和 Sun (2005) 关于分段线性函数的一项猜想,并提出了表示具有对数深度函数所需神经网络的上限。
May, 2021
本文研究了使用 ReLU 激活的浅层和深层人工神经网络的高维逼近能力,并且证明了使用深层 ReLU 人工神经网络可以解决简单逼近问题,而不能在多项式时间复杂度下使用浅层或不够深度的人工神经网络来解决。
Jan, 2023
研究使用 ReLU 函数作为激活函数的深度神经网络和连续分段线性函数的关系,特别是从单纯形线性有限元法(FEM)得到的连续分段线性函数。在此基础上,我们证明了使用 ReLU DNN 表示任何线性有限元函数需要至少两个隐藏层,而使用 ReLU DNN 表示任何 CPWL 函数需要至少两个隐藏层。最后演示了使用 ReLU DNN 求解偏微分方程组的结果。
Jul, 2018
本文研究了与 ReLU 激活函数相关的功能深度神经网络的逼近能力,并在简单三角剖分下构建了连续分段线性插值。此外,还建立了所提出的功能深度 ReLU 网络的逼近速率,并在温和的正则条件下进行了分析,最终探究了功能数据学习算法的理解。
Apr, 2023
ReLU shallow neural networks can uniformly approximate functions from the H"older space with rates close to the optimal one in high dimensions.
Jul, 2023
本文发现使用修正线性单元(ReLU)激活的深度神经网络(DNNs)可以近似表示一类高维连续函数,其参数数量与输入维度和近似误差的多项式规模相同,该类函数由多个特殊函数的组合表示,包括乘积,最大值和某些并行的 Lipschitz 连续函数。
Apr, 2023
该论文研究了深度神经网络的近似和表达能力,证明了神经网络在目标应用中比传统的非线性近似方法具有更强的近似能力,其中逼近单变量函数的 ReLU 神经网络是研究的重点,然而,尚缺乏一种完全定量化神经网络近似能力的理论。
May, 2019
研究了在 $L^2$ 意义下逼近分类器函数所需的 ReLU 神经网络的深度和权重数量,构造了一类具有固定层数的人工神经网络,使用 ReLU 激活函数逼近可允许不连续的分段 $C^β$ 函数,权重数量为 $O (ε^{-(2 (d-1))/β})$,并证明这是最优的。此外,为了实现最优逼近率,需要具有一定深度的 ReLU 网络。最后,分析了在高维空间中使用特征映射和分类器函数逼近的情况。
Sep, 2017