利用聚合函数表达的子函数描述构成的有向无环图,深度网络比浅层网络更好地逼近这些函数,因为深度网络可以被设计成具有相同的组合结构,而浅层网络无法利用这一知识,组合性的祝福缓解了维数灾难,而称为良好误差传播的定理允许通过选择适当的范数、平滑度等将有关浅层网络的定理推广到有关深层网络的定理。我们在三个环境中说明了这一点,其中每个通道在深层网络中计算球面多项式、非平滑 ReLU 网络或与 ReLU 网络密切相关的另一种区域函数网络。
May, 2019
本文回顾了最近关于层级神经网络结构的研究成果,探讨了深度卷积神经网络优于浅层神经网络在函数近似问题中的表现条件。本文提出了一个新的对于相对维度的定义,该定义可以被深层网络而非浅层网络使用以显著降低近似和学习所需的复杂度。同时,本文还宣布了关于当前神经网络中使用的非平滑激活函数 - ReLU 函数以及高斯网络的新结果。
Aug, 2016
简述:对深度学习的理论研究逐渐深入,从表示能力到优化、从梯度下降的泛化性质到固有隐藏复杂性的到达方式,已经有了一些解释;通过在分类任务中使用经典的均匀收敛结果,我们证明了在每个层的权重矩阵上施加单位范数约束下最小化替代指数型损失函数的有效性,从而解决了与深度网络泛化性能相关的一些谜团。
Aug, 2019
本论文旨在应用物理学中的对称性、局域性、复合性和多项式对数概率等性质,研究深度神经网络在近似处理特定实际问题时可以使用相对简单的模型,从信息论的角度证明这些理论,并通过层次结构的机制使深层模型比浅层模型更高效。
本文通过深度神经网络的 Kolmogorov 最优化来发展其基本极限,并阐述了深度网络对于不同函数类的 Kolmogorov 最优逼近性,其提供了指数级的逼近精度,并且在逼近足够光滑的函数时,相较于有限宽深网络,有限宽深层网络需要更小的连通性。
Jan, 2019
本文研究深度全连接网络从可近似角度看与其两层浅神经网络等价,表明其泛化能力在某些方面受限于核函数框架,提出一种基于核函数的特征值分析方法。
Sep, 2020
研究了深度神经网络与浅层网络的比较,发现对于大部分分段光滑函数,相对于浅层网络,深度神经网络可以使用更少的神经元来实现相同的函数逼近程度。
Oct, 2016
本文主要研究深度神经网络、近似能力和可学习性之间的复杂关系,提出了必须在浅层神经网络中近似目标函数的概念,并给出了多个范例证明了深度神经网络的分离性,并结论它们即使被高效近似,也不能被高效学习。
Jan, 2021
本文探讨了深度学习相对于浅层学习的指数优势,发现深度卷积网络是实现该优势的特例,但是权重共享并不是其主要原因。
Nov, 2016
该研究在理论上研究了深度神经网络在不变函数中的逼近和复杂度特性,证明了不变函数可以被各种类型的神经网络模型进行渐近逼近,并且提供应用于高分辨率信号的参数估计和预测的技术。
Oct, 2022