本文通过深度神经网络的 Kolmogorov 最优化来发展其基本极限,并阐述了深度网络对于不同函数类的 Kolmogorov 最优逼近性,其提供了指数级的逼近精度,并且在逼近足够光滑的函数时,相较于有限宽深网络,有限宽深层网络需要更小的连通性。
Jan, 2019
本文研究神经网络的理论解释,针对单个隐藏层、平滑激活函数和良好输入分布条件下生成的数据可否进行有效学习,证明了对于广泛的激活函数和任何对数凹分布的输入,存在一类单隐藏层函数,其输出为和门,难以以任何精度有效地学习,这一下界对权重的微小扰动具有鲁棒性,且通过实验验证了训练误差的相变现象。
Jul, 2017
通过 Fourier 分片定理、Radon 变换和 Parseval 关系,证明了带无界激活函数的神经网络仍然满足通用逼近性质,并且表明在反向传播后,Ridgelet 变换或 Radon 域中的反投影滤波器是神经网络学习到的内容。
May, 2015
通过 Barron 定理,我们证明了一组满足某些 Fourier 条件的函数的组合可以通过一个多达 $n+1$ 层的神经网络来逼近,为深度神经网络的表达能力提供了解释。英文原文主要探讨了神经网络的一些基本性质以及其在生成模型领域的应用,建议阅读原文以获取更多细节。
Feb, 2017
我们提出了机器学习的连续形式,作为经典数值分析中变分计算与微分积分方程问题的解决方法,演示了如何通过离散化来恢复传统的机器学习模型和算法,同时展示了从这种连续形式自然产生的新模型和新算法。并讨论了如何在这个框架下研究泛化误差和隐式正则化问题。
Dec, 2019
本文提出一种新的卷积神经网络架构,通过将卷积核建模为连续函数,解决了传统神经网络处理序列数据时的梯度爆炸、记忆短视、非定长序列等问题,并在多个数据集上获得了最先进的结果。
Feb, 2021
本文使用直接代数证明了通用逼近定理,进一步量化了逼近所需的隐层单元数,并且证明了在权重上施加限制下仍然保持均匀逼近性质。
Feb, 2020
本研究通过三个隐藏层和不断增强、连续、有界激活函数的神经网络提供了一种简单的方法来证明一种通用逼近定理。此结果相对于最佳结果较弱,但证明过程只使用了本科分析学的基础知识。
Jun, 2024
通过研究神经网络的一层隐藏层,我们发现所有在无穷远处趋于零的连续函数可以被具有渐近线性行为的非零连续激活函数的神经网络进行均匀逼近,并且我们确定了这些函数可被离散的 sigmoidal 函数的积的闭线性包所表示的代数结构。
Aug, 2023
通过 Kolmogorov - Arnold 叠加定理的建设性证明以及外部叠加函数可以通过深度 ReLU 网络有效逼近的一些多元连续函数的子集,我们证明了关于深度 ReLU 网络逼近多元函数的定理,其中降低了维度诅咒。
Jun, 2019