本文提出了一种新的神经网络表达性问题的方法,其中基于轨迹长度的一维路径上的输出是一种新颖的表达形式。实验得出:(1)计算的函数复杂度随深度指数增长;(2)所有权重不同,加上轨迹正则化是批标准化的一个更简单的选择,但表现相同。
Jun, 2016
该论文研究了深层神经网络在梯度下降最优化过程中利用深度的表达能力,证明了具有分形结构的分布可以被深层网络有效地表达,而浅层网络无法表达。论文还探讨了粗细篮子之间的平衡如何影响深度神经网络的优化过程,并推断了学习深度神经网络是否成功取决于分布是否可以被浅层网络很好地逼近的结论。
Mar, 2019
该研究探讨深度网络的优势,结论为深度网络可以在不增加浅层网络容量的情况下具备出色的表现力,从而实现近乎最优的学习率。
Mar, 2018
研究神经网络的深度和节点的线性区分性对于复杂计算的影响,并在对多个模型类型的分析中提出新的关于深度优势的理论结果,同时研究了高层次单元的行为。
Feb, 2014
本文研究神经网络的表达能力,提出了三种衡量表达能力的自然量,并探讨了神经网络层数与表达能力之间的关系,特别地找出了深度敏感性所在,同时分析了训练和输入 - 输出映射等因素对表达能力的影响。
Nov, 2016
通过 Barron 定理,我们证明了一组满足某些 Fourier 条件的函数的组合可以通过一个多达 $n+1$ 层的神经网络来逼近,为深度神经网络的表达能力提供了解释。英文原文主要探讨了神经网络的一些基本性质以及其在生成模型领域的应用,建议阅读原文以获取更多细节。
Feb, 2017
本研究通过提供一种数学框架来计算分段线性网络的线性区域数量和边界体积,证明神经网络在初始化时的线性区域数量沿任何一维子空间的平均值是总神经元数的线性增长,远低于指数上界,我们得出结论:神经网络的实际表达能力可能远低于理论最大值,并可以量化。
Jan, 2019
利用聚合函数表达的子函数描述构成的有向无环图,深度网络比浅层网络更好地逼近这些函数,因为深度网络可以被设计成具有相同的组合结构,而浅层网络无法利用这一知识,组合性的祝福缓解了维数灾难,而称为良好误差传播的定理允许通过选择适当的范数、平滑度等将有关浅层网络的定理推广到有关深层网络的定理。我们在三个环境中说明了这一点,其中每个通道在深层网络中计算球面多项式、非平滑 ReLU 网络或与 ReLU 网络密切相关的另一种区域函数网络。
May, 2019
该研究提出了一种理论上可靠的解决方案,用于跟踪计算机视觉应用中深度神经网络中的非线性传播,提供了详实的实验结果,突出了提出的亲和性评分的实用性及其潜在的广泛应用。
Oct, 2023
简述:对深度学习的理论研究逐渐深入,从表示能力到优化、从梯度下降的泛化性质到固有隐藏复杂性的到达方式,已经有了一些解释;通过在分类任务中使用经典的均匀收敛结果,我们证明了在每个层的权重矩阵上施加单位范数约束下最小化替代指数型损失函数的有效性,从而解决了与深度网络泛化性能相关的一些谜团。
Aug, 2019