深度学习和廉价学习为什么如此有效?
本文证明了深度(分层)网络可以近似组合函数,其准确度与浅层网络相同,但训练参数以及 VC 维度指数级地减少,并定义了一般类可扩展和平移不变算法来证明深度卷积网络的简单和自然的一组要求。
Mar, 2016
简述:对深度学习的理论研究逐渐深入,从表示能力到优化、从梯度下降的泛化性质到固有隐藏复杂性的到达方式,已经有了一些解释;通过在分类任务中使用经典的均匀收敛结果,我们证明了在每个层的权重矩阵上施加单位范数约束下最小化替代指数型损失函数的有效性,从而解决了与深度网络泛化性能相关的一些谜团。
Aug, 2019
本文研究神经网络的理论解释,针对单个隐藏层、平滑激活函数和良好输入分布条件下生成的数据可否进行有效学习,证明了对于广泛的激活函数和任何对数凹分布的输入,存在一类单隐藏层函数,其输出为和门,难以以任何精度有效地学习,这一下界对权重的微小扰动具有鲁棒性,且通过实验验证了训练误差的相变现象。
Jul, 2017
本研究测试了标准深度学习方法是否能够发现几种深层表示理论所提出的有效表示,并发现并非深度网络类中的每一个组件都能够被有效地学习,因此需要进一步限制来理解哪些函数既可以有效地表示也可以被学习。
Jul, 2018
本文通过深度神经网络的 Kolmogorov 最优化来发展其基本极限,并阐述了深度网络对于不同函数类的 Kolmogorov 最优逼近性,其提供了指数级的逼近精度,并且在逼近足够光滑的函数时,相较于有限宽深网络,有限宽深层网络需要更小的连通性。
Jan, 2019
我们描述了深度学习数学分析的新领域,涉及到超参数神经网络的普适性,深度对于网络的作用,感知问题的缺失,问题优化性能的成功和架构的各个方面对学习任务的影响,并提供了现代方法的概述和详细的主要思想。
May, 2021
证明深度神经网络可以有效逼近多元多项式,但当只有一个隐藏层时,所需的神经元数量呈指数级增长;另一方面,增加隐藏层数量从 1 到 k 时,所需的神经元数量的增长速度是随着 n^(1/k) 对数增长,暗示了实用的表达所需的最小层数仅对 n 进行对数级增长。
May, 2017
利用聚合函数表达的子函数描述构成的有向无环图,深度网络比浅层网络更好地逼近这些函数,因为深度网络可以被设计成具有相同的组合结构,而浅层网络无法利用这一知识,组合性的祝福缓解了维数灾难,而称为良好误差传播的定理允许通过选择适当的范数、平滑度等将有关浅层网络的定理推广到有关深层网络的定理。我们在三个环境中说明了这一点,其中每个通道在深层网络中计算球面多项式、非平滑 ReLU 网络或与 ReLU 网络密切相关的另一种区域函数网络。
May, 2019