局部流形学习的深度网络
本文介绍了一种新的深度神经网络方法,用于局部流形学习,重点关注三个隐藏层的深度网络,通过对样本点数量进行回归,得出正则化 $s$ 的近似度量,实现了维度降低和误差消除。
Mar, 2018
本文以一种抽象的定理为基础,证明了解决函数逼近中避免维数噪声以及用于流形学习的样本外推的逼近度的两个问题。作者建立了一种浅层网络和深度网络的模型来证明这个定理,并给出了应用案例。
Aug, 2019
讨论了使用深度神经网络逼近函数的方法,构建了一个稀疏连接的深度 - 4 神经网络,并限定其在逼近函数方面的误差。我们的网络计算小波函数,这些小波函数是由修正线性单元(ReLU)计算得到的。
Sep, 2015
本研究基于树形结构探讨如何设计深度神经网络用于实现径向函数,以实现在任意高维欧几里得空间内旋转不变性的近乎最优函数逼近。结果显示,深度网络在逼近精度和学习能力方面远优于仅具有一个隐藏层的浅层神经网络,并证明了对于学习径向函数,深度网络可以实现近乎最优的学习速率,而浅层网络却不能。因此,这项研究说明深度在神经网络设计中的必要性,以实现旋转不变的目标函数。
Apr, 2019
研究神经网络中的多重流形问题,证明当网络深度相对于数据的几何和统计属性较大时,其宽度作为统计资源,使随机初始化网络的梯度集中,而其深度作为拟合资源,更易于分离类流形,基于神经切向核及其在训练超参数化神经网络方面的作用,我们为深度全连接网络的神经切向核提供了完全优化的集中速率。
Aug, 2020
本文提出了一种面向流形训练深度神经网络的通用框架,利用切空间和指数映射,将最终输出元素在 Riemann 流形上的深度神经网络的训练问题转化为当前深度学习研究的问题,在多类图像分类和人脸图像回归上显示出改进后的性能。
Aug, 2017
从有限的点值样本学习多变量平滑目标函数的近似是科学计算和计算科学工程中的一个重要任务。本文调查了近年来在此方面取得的重大进展,描述了来自参数模型和计算不确定性量化的当代动机,无穷维巴拿赫空值全纯函数类,这些类的有限数据可学习性的基本限制,以及从有限数据高效学习此类函数的稀疏多项式和深度神经网络方法。针对深度学习的实际性能与深度神经网络的近似理论之间的差距,我们发展了实际存在理论的主题,宣称存在维度无关的 DNN 结构和训练策略,以证明在训练数据量方面具有可证明近似最优的泛化误差。
Apr, 2024
通过使用 Low-Dimensional-Manifold-regularized neural Network 来加强神经网络的特征提取,有效提高了在小样本情况下的泛化能力并且可以应用于同种物体的跨光谱识别。
Nov, 2017
神经网络具有普适逼近能力,使用一层隐藏层即可精确逼近任何非线性连续算子,但需要 DeepONet 结构通过降低泛化误差以实现其潜力应用。
Oct, 2019