深度神经网络近似理论
本文提出了深度神经网络的可连接性和内存需求的基本下限,同时证明了其实现方式适用于广泛的函数类。此外,研究表明,广义仿射系统内的全局极优逼近问题可以通过神经网络得到最优解,并通过数值实验验证了随机梯度下降算法能够学习出近乎最优的函数逼近。
May, 2017
简述:对深度学习的理论研究逐渐深入,从表示能力到优化、从梯度下降的泛化性质到固有隐藏复杂性的到达方式,已经有了一些解释;通过在分类任务中使用经典的均匀收敛结果,我们证明了在每个层的权重矩阵上施加单位范数约束下最小化替代指数型损失函数的有效性,从而解决了与深度网络泛化性能相关的一些谜团。
Aug, 2019
研究深度神经网络的表现力,将其复杂性衡量为连接数或神经元数,通过近似理论建立了逼近空间,研究 skip-connections 和非线性对逼近空间的影响,将其与 Besov 空间联系起来,发现如果深度足够,即使函数平滑度很低,也能够很好地通过神经网络逼近。
May, 2019
该研究在理论上研究了深度神经网络在不变函数中的逼近和复杂度特性,证明了不变函数可以被各种类型的神经网络模型进行渐近逼近,并且提供应用于高分辨率信号的参数估计和预测的技术。
Oct, 2022
本文回顾了最近关于层级神经网络结构的研究成果,探讨了深度卷积神经网络优于浅层神经网络在函数近似问题中的表现条件。本文提出了一个新的对于相对维度的定义,该定义可以被深层网络而非浅层网络使用以显著降低近似和学习所需的复杂度。同时,本文还宣布了关于当前神经网络中使用的非平滑激活函数 - ReLU 函数以及高斯网络的新结果。
Aug, 2016
通过计算框架来探讨深度神经网络在数值分析领域的稳定性、精确性、计算效率和样本复杂性,研究了不同维度中的测试函数和与压缩感知的比较,结果表明 DL 在实际中的性能表现仍需要进一步设计架构和训练策略。但此实践证明了深度神经网络在科学计算中具有潜在的更好性能。
Jan, 2020
该研究论文通过对 Korobov 函数应用深度神经网络(DNNs),建立了近乎最优的逼近速率,成功克服了维度灾难。通过 $L_p$ 范数和 $H^1$ 范数对逼近结果进行了测量。我们实现的逼近速率展现了非常优秀的 “超收敛” 速率,优于传统方法和任何连续函数逼近器。这些结果是非渐近的,同时考虑了网络的宽度和深度,给出了误差界限。
Nov, 2023
讨论了使用深度神经网络逼近函数的方法,构建了一个稀疏连接的深度 - 4 神经网络,并限定其在逼近函数方面的误差。我们的网络计算小波函数,这些小波函数是由修正线性单元(ReLU)计算得到的。
Sep, 2015
这篇论文揭示了深度人工神经网络在 Kolmogorov PDEs 数值逼近中克服了维数灾难的现象。我们证明了所用 DNN 模型的参数数量在 PDE 维数 d 和逼近精度的倒数 ε 的倒数中,最多呈多项式增长。
Sep, 2018