深度网络实现数据特征
该研究表明,浅层前馈神经网络可以学习先前由深层网络学习的复杂函数,并且可以达到仅用深度模型可以实现的准确度,在 TIMIT 语音识别任务中,没有经过复杂设计的浅层神经网络能够表现类似于深度卷积网络,并且成功地训练浅层神经网络模仿更深层次模型的方法表明,可能存在比当前更好的训练浅层前馈网络的算法。
Dec, 2013
本文旨在量化特征提取和泛化中深度与特征之间的对应关系,通过展示提取单一特征和复合特征的深度 - 参数权衡表明特征对深度的适应性和相反情况,并证明在深度网络上实现经典的经验风险最小化可实现多种学习任务的最优泛化性能,其理论结果通过一系列数字实验进行了验证。
Apr, 2020
本文回顾了最近关于层级神经网络结构的研究成果,探讨了深度卷积神经网络优于浅层神经网络在函数近似问题中的表现条件。本文提出了一个新的对于相对维度的定义,该定义可以被深层网络而非浅层网络使用以显著降低近似和学习所需的复杂度。同时,本文还宣布了关于当前神经网络中使用的非平滑激活函数 - ReLU 函数以及高斯网络的新结果。
Aug, 2016
该论文提出了两个新标准,以评估深度神经网络的表达能力和计算函数,并同时比较增加层数和增加每层神经元数量对于提高模型表达能力的效果,从而增进对深度学习的理解。
Sep, 2020
简述:对深度学习的理论研究逐渐深入,从表示能力到优化、从梯度下降的泛化性质到固有隐藏复杂性的到达方式,已经有了一些解释;通过在分类任务中使用经典的均匀收敛结果,我们证明了在每个层的权重矩阵上施加单位范数约束下最小化替代指数型损失函数的有效性,从而解决了与深度网络泛化性能相关的一些谜团。
Aug, 2019
利用聚合函数表达的子函数描述构成的有向无环图,深度网络比浅层网络更好地逼近这些函数,因为深度网络可以被设计成具有相同的组合结构,而浅层网络无法利用这一知识,组合性的祝福缓解了维数灾难,而称为良好误差传播的定理允许通过选择适当的范数、平滑度等将有关浅层网络的定理推广到有关深层网络的定理。我们在三个环境中说明了这一点,其中每个通道在深层网络中计算球面多项式、非平滑 ReLU 网络或与 ReLU 网络密切相关的另一种区域函数网络。
May, 2019
本论文旨在应用物理学中的对称性、局域性、复合性和多项式对数概率等性质,研究深度神经网络在近似处理特定实际问题时可以使用相对简单的模型,从信息论的角度证明这些理论,并通过层次结构的机制使深层模型比浅层模型更高效。
Aug, 2016
使用深度神经网络进行物体分类,可以占人类相似性判断的重要部分,但不能捕捉到人类表现中的一些关键性质。我们开发了一种方法,将深层特征与人类相似性判断对齐,以获取可用于扩展心理实验范围的图像表示。
Aug, 2016
该论文研究了深层神经网络在梯度下降最优化过程中利用深度的表达能力,证明了具有分形结构的分布可以被深层网络有效地表达,而浅层网络无法表达。论文还探讨了粗细篮子之间的平衡如何影响深度神经网络的优化过程,并推断了学习深度神经网络是否成功取决于分布是否可以被浅层网络很好地逼近的结论。
Mar, 2019