神经网络中逼近、深度分离与可学习性的关联
本文回顾了最近关于层级神经网络结构的研究成果,探讨了深度卷积神经网络优于浅层神经网络在函数近似问题中的表现条件。本文提出了一个新的对于相对维度的定义,该定义可以被深层网络而非浅层网络使用以显著降低近似和学习所需的复杂度。同时,本文还宣布了关于当前神经网络中使用的非平滑激活函数 - ReLU 函数以及高斯网络的新结果。
Aug, 2016
本文通过深度神经网络的 Kolmogorov 最优化来发展其基本极限,并阐述了深度网络对于不同函数类的 Kolmogorov 最优逼近性,其提供了指数级的逼近精度,并且在逼近足够光滑的函数时,相较于有限宽深网络,有限宽深层网络需要更小的连通性。
Jan, 2019
本文证明了深度(分层)网络可以近似组合函数,其准确度与浅层网络相同,但训练参数以及 VC 维度指数级地减少,并定义了一般类可扩展和平移不变算法来证明深度卷积网络的简单和自然的一组要求。
Mar, 2016
本文提出了深度神经网络的可连接性和内存需求的基本下限,同时证明了其实现方式适用于广泛的函数类。此外,研究表明,广义仿射系统内的全局极优逼近问题可以通过神经网络得到最优解,并通过数值实验验证了随机梯度下降算法能够学习出近乎最优的函数逼近。
May, 2017
简述:对深度学习的理论研究逐渐深入,从表示能力到优化、从梯度下降的泛化性质到固有隐藏复杂性的到达方式,已经有了一些解释;通过在分类任务中使用经典的均匀收敛结果,我们证明了在每个层的权重矩阵上施加单位范数约束下最小化替代指数型损失函数的有效性,从而解决了与深度网络泛化性能相关的一些谜团。
Aug, 2019
研究深度神经网络的表现力,将其复杂性衡量为连接数或神经元数,通过近似理论建立了逼近空间,研究 skip-connections 和非线性对逼近空间的影响,将其与 Besov 空间联系起来,发现如果深度足够,即使函数平滑度很低,也能够很好地通过神经网络逼近。
May, 2019
本论文旨在应用物理学中的对称性、局域性、复合性和多项式对数概率等性质,研究深度神经网络在近似处理特定实际问题时可以使用相对简单的模型,从信息论的角度证明这些理论,并通过层次结构的机制使深层模型比浅层模型更高效。
Aug, 2016
本文提供了一些新的基于深度的前馈神经网络分离结果,证明了各种类型的简单自然函数可以更好地用深层网络逼近比更浅的更大的网络,这包括指示球和椭圆体的指示器,$L_1$ 范数下径向非线性函数,以及平滑的非线性函数。我们还展示了这些差距的实验观察结果:当训练神经网络学习一个单位球的指示器时,增加深度比增加宽度更容易收敛学习。
Oct, 2016
利用 ReLU 网络对可计算的具有多项式界的 Lipschitz 常数的函数进行逼近时,深度和大小如何影响其表达能力,深度越大亦或者规模越大准确度是否更高是研究中的主要难点,并探讨了相应的难题和所带来的挑战。我们的统计结果显示出了一些计算复杂性中的难点,同时也指出了一些可表示为具有布尔函数的形式,利用神经网络和阈值电路进行计算时具有线性的下界,这一研究也具有独立的意义。
Jan, 2021