浅层网络在逼近和学习高频时的挑战:数值研究
本研究探讨了神经网络学习函数的速度与频率之间的关系,发现在引入偏差项的情况下,浅层神经网络才能够学习和表示简单的低频函数,进一步实验与理论的结果支持了这一理论。
Jun, 2019
简述:对深度学习的理论研究逐渐深入,从表示能力到优化、从梯度下降的泛化性质到固有隐藏复杂性的到达方式,已经有了一些解释;通过在分类任务中使用经典的均匀收敛结果,我们证明了在每个层的权重矩阵上施加单位范数约束下最小化替代指数型损失函数的有效性,从而解决了与深度网络泛化性能相关的一些谜团。
Aug, 2019
本研究通过发现深度神经网络训练中的隐性偏差(如频率规则)来理解为何带有更多参数的深度神经网络通常可以很好地泛化;通过为两层 ReLU 神经网络显式化这种隐性偏差,提出了一种基于频率规则动力学的模型,解释了学习的结果并提供了一个可以先验估计泛化误差上界的最优化公式。
May, 2019
本文回顾了最近关于层级神经网络结构的研究成果,探讨了深度卷积神经网络优于浅层神经网络在函数近似问题中的表现条件。本文提出了一个新的对于相对维度的定义,该定义可以被深层网络而非浅层网络使用以显著降低近似和学习所需的复杂度。同时,本文还宣布了关于当前神经网络中使用的非平滑激活函数 - ReLU 函数以及高斯网络的新结果。
Aug, 2016
本文主要研究深度神经网络、近似能力和可学习性之间的复杂关系,提出了必须在浅层神经网络中近似目标函数的概念,并给出了多个范例证明了深度神经网络的分离性,并结论它们即使被高效近似,也不能被高效学习。
Jan, 2021
本论文旨在应用物理学中的对称性、局域性、复合性和多项式对数概率等性质,研究深度神经网络在近似处理特定实际问题时可以使用相对简单的模型,从信息论的角度证明这些理论,并通过层次结构的机制使深层模型比浅层模型更高效。
Aug, 2016
本文通过深度神经网络的 Kolmogorov 最优化来发展其基本极限,并阐述了深度网络对于不同函数类的 Kolmogorov 最优逼近性,其提供了指数级的逼近精度,并且在逼近足够光滑的函数时,相较于有限宽深网络,有限宽深层网络需要更小的连通性。
Jan, 2019
本文研究神经网络的理论解释,针对单个隐藏层、平滑激活函数和良好输入分布条件下生成的数据可否进行有效学习,证明了对于广泛的激活函数和任何对数凹分布的输入,存在一类单隐藏层函数,其输出为和门,难以以任何精度有效地学习,这一下界对权重的微小扰动具有鲁棒性,且通过实验验证了训练误差的相变现象。
Jul, 2017
该研究表明,浅层前馈神经网络可以学习先前由深层网络学习的复杂函数,并且可以达到仅用深度模型可以实现的准确度,在 TIMIT 语音识别任务中,没有经过复杂设计的浅层神经网络能够表现类似于深度卷积网络,并且成功地训练浅层神经网络模仿更深层次模型的方法表明,可能存在比当前更好的训练浅层前馈网络的算法。
Dec, 2013