超越径向函数的深度分离
考虑常数精度下 Lipschitz 参数不随维度 d 变化时的 O (1) Lipschitz 径向函数问题,发现相比之前的研究,不存在深度为 2、规模为 poly (d) 的神经网络可近似表示该类函数,但当深度和规模限制任意一个为 poly (1/epsilon) 时,函数可被近似表示,两者的多项式依赖程度不能同时为多项式,表明要证明相应深度分离结果需要全新技术支持。
Apr, 2019
研究表明,具有指数级有界权重的 poly-size 深度二神经网络不能逼近无法由低次多项式逼近的函数,然而,这些函数可以通过 poly-size 深度三网络逼近,并从均匀分布的角度阐明了深度二和深度三网络之间的区别。
Feb, 2017
证明了在满足条件的情况下,当用深度为 2 和深度为 3 的神经网络来近似一个在 [0,1]^d 上与 Lipschitz 目标函数的 constant 精度相等的分布时,存在指数级的差距。
Feb, 2024
研究发现,对于几乎所有已知的激活函数类型,存在简单的(大致上是径向的)函数在 $ eals^d$ 上,可由小型三层前馈神经网络表达,但无法用任何二层网络近似到特定常数精度以上,除非它的宽度在指数级别。此结果证明了深度比宽度对于标准前馈神经网络的提升,即使只增加了 1 层,其价值也可以是指数级别。此外,相比于布尔函数相关研究,该结果需要更少的假设,并且证明技巧和构造方法非常不同。
Dec, 2015
本文提供了一些新的基于深度的前馈神经网络分离结果,证明了各种类型的简单自然函数可以更好地用深层网络逼近比更浅的更大的网络,这包括指示球和椭圆体的指示器,$L_1$ 范数下径向非线性函数,以及平滑的非线性函数。我们还展示了这些差距的实验观察结果:当训练神经网络学习一个单位球的指示器时,增加深度比增加宽度更容易收敛学习。
Oct, 2016
利用 ReLU 网络对可计算的具有多项式界的 Lipschitz 常数的函数进行逼近时,深度和大小如何影响其表达能力,深度越大亦或者规模越大准确度是否更高是研究中的主要难点,并探讨了相应的难题和所带来的挑战。我们的统计结果显示出了一些计算复杂性中的难点,同时也指出了一些可表示为具有布尔函数的形式,利用神经网络和阈值电路进行计算时具有线性的下界,这一研究也具有独立的意义。
Jan, 2021
讨论了使用深度神经网络逼近函数的方法,构建了一个稀疏连接的深度 - 4 神经网络,并限定其在逼近函数方面的误差。我们的网络计算小波函数,这些小波函数是由修正线性单元(ReLU)计算得到的。
Sep, 2015
本研究基于树形结构探讨如何设计深度神经网络用于实现径向函数,以实现在任意高维欧几里得空间内旋转不变性的近乎最优函数逼近。结果显示,深度网络在逼近精度和学习能力方面远优于仅具有一个隐藏层的浅层神经网络,并证明了对于学习径向函数,深度网络可以实现近乎最优的学习速率,而浅层网络却不能。因此,这项研究说明深度在神经网络设计中的必要性,以实现旋转不变的目标函数。
Apr, 2019
本文提出了深度神经网络的可连接性和内存需求的基本下限,同时证明了其实现方式适用于广泛的函数类。此外,研究表明,广义仿射系统内的全局极优逼近问题可以通过神经网络得到最优解,并通过数值实验验证了随机梯度下降算法能够学习出近乎最优的函数逼近。
May, 2017
本文主要研究深度神经网络、近似能力和可学习性之间的复杂关系,提出了必须在浅层神经网络中近似目标函数的概念,并给出了多个范例证明了深度神经网络的分离性,并结论它们即使被高效近似,也不能被高效学习。
Jan, 2021