ReLU 深度神经网络与线性有限元
用浅层的 ReLU 神经网络近似表示分段线性函数与有限元函数之间的关系,并通过有限元函数分析 ReLU 神经网络在 $L^p$ 范数下的逼近能力,同时讨论了最近的张量神经网络在张量有限元函数的严格表示上的应用。
Mar, 2024
本文研究使用带有 ReLU 的深度神经网络能够代表的函数家族,提供了一个训练一个 ReLU 深度神经网络的一种算法,同时提高了在将 ReLU 神经网络函数逼近为浅层 ReLU 网络时已知下限的上界,并证明了这些间隙定理。
Nov, 2016
采用深度神经网络和 ReLU 激活函数,本研究证明能够在任意维度的分形网格上表示 Lagrange 有限元函数。通过引入基函数的新型全局公式,基于几何分解和高维分形网格及质心坐标函数的两个关键性质,该表示理论为这些深度神经网络的自然近似结果提供了便利。研究结果首次证明了深度神经网络如何系统地生成一般的连续分段多项式函数。
Dec, 2023
本研究分析了使用修正线性单元(ReLU)作为激活函数的无限宽度、有限成本的浅层神经网络对连续分段线性函数的表示。通过积分表示,我们可以将浅层神经网络视为在适当的参数空间上的相应有限符号测度。我们将这些测度映射到参数空间上的测度,并将参数空间中的点双射映射到函数定义域中的超平面。我们证明了 Ongie 等人的一个猜想,即使用这种无限宽度神经网络可以表达的每一个连续分段线性函数都可以表达为有限宽度的浅层 ReLU 神经网络。
Jul, 2023
本文研究了与 ReLU 激活函数相关的功能深度神经网络的逼近能力,并在简单三角剖分下构建了连续分段线性插值。此外,还建立了所提出的功能深度 ReLU 网络的逼近速率,并在温和的正则条件下进行了分析,最终探究了功能数据学习算法的理解。
Apr, 2023
研究了在 $L^2$ 意义下逼近分类器函数所需的 ReLU 神经网络的深度和权重数量,构造了一类具有固定层数的人工神经网络,使用 ReLU 激活函数逼近可允许不连续的分段 $C^β$ 函数,权重数量为 $O (ε^{-(2 (d-1))/β})$,并证明这是最优的。此外,为了实现最优逼近率,需要具有一定深度的 ReLU 网络。最后,分析了在高维空间中使用特征映射和分类器函数逼近的情况。
Sep, 2017
深度学习方法在逼近高维偏微分方程方面的研究,尤其是通过神经网络和活化函数的选择,可以有效地克服维数诅咒,并能够在多项式时间内以任意精度逼近解,为解决偏微分方程提供了广泛应用的前景。
Sep, 2023
本研究使用混合整数优化、多面体理论、热带几何等技术探究神经网络单隐藏层能否学习到所有函数的普适逼近定理,为可表示函数的类提供了数学支持。同时,解决了 Wang 和 Sun (2005) 关于分段线性函数的一项猜想,并提出了表示具有对数深度函数所需神经网络的上限。
May, 2021
本文通过样条理论的角度展示了神经网络训练问题与函数的 Banach 空间有关,进一步论述了 ReLU 等激活函数的重要性,解释了神经网络设计与训练策略如何影响其性能,并为路径范数正则化及跳连等策略提供了新的理论支持。
Oct, 2019
使用深度学习方法中的深度神经网络(DNN)和修正线性单元(ReLU)、渗漏线性单元(leaky ReLU)或软正单元(softplus)激活函数,可以在无维数的空间 - 时间区域中以 Lp 意义逼近具有 Lipschitz 连续非线性性质的半线性热方程的解。
Jun, 2024