通用逼近的词汇:映射组合的语言学视角
本文讨论了使用无限维度神经网络进行非线性算子的普适逼近的问题,并证明了对于不同的无限维度神经网络,只要在拓扑上有些轻微的条件,就能近似地表示出任意连续算子,并提供了有限逼近无限神经网络所需的最小输入和输出单元的下界。
Oct, 2019
通过研究神经网络的一层隐藏层,我们发现所有在无穷远处趋于零的连续函数可以被具有渐近线性行为的非零连续激活函数的神经网络进行均匀逼近,并且我们确定了这些函数可被离散的 sigmoidal 函数的积的闭线性包所表示的代数结构。
Aug, 2023
本文讨论在预先训练的视觉与语言模型中向量数据嵌入的组合结构,提出一种基于理想词向量的新的合成性表达方法,并探讨其与数学表示理论和去耦合表示概念的联系。作者提供理论和经验证据表明,理想词嵌入提供良好的组合近似和比基于标记的分解更有效的组合表示方法。
Feb, 2023
本研究提出采用组合形式的字典和采用 ReLU 前馈神经网络的方法来进行非线性逼近,并比较单层、双层和三层组合字典的最佳 $N$ 项逼近率,并表明较宽的神经网络层数较少的字典在 H"older 连续函数逼近方面相对于较窄深度的字典具有更高的计算效率。
Feb, 2019
通过分析高度表达力模型的基本结构元素,我们引入了一个表达力类别的层次结构,将全局可近似性属性与无限 VC 维度的弱属性相连接,并证明了几个逐渐复杂的功能族的分类结果。特别地,我们介绍了一个通用的多项式 - 指数 - 代数功能族,经证明它受到了多项式约束。作为结果,我们表明具有不超过一层具有超越激活函数(如正弦或标准 sigmoid)的固定大小的神经网络通常无法近似任意有限集上的函数。另一方面,我们提供了包括两层隐藏层神经网络在内的函数族的示例,它们在任意有限集上可近似函数,但在整个定义域上却无法做到。
Nov, 2023
本文证明了深度(分层)网络可以近似组合函数,其准确度与浅层网络相同,但训练参数以及 VC 维度指数级地减少,并定义了一般类可扩展和平移不变算法来证明深度卷积网络的简单和自然的一组要求。
Mar, 2016
通过对神经网络的输入层和输出层进行修改,在保持其基本架构能力的同时,实现了任意连续函数在相应连续紧致集上的均一逼近能力。此研究同时发现当输入输出空间为 Cartan-Hadamard 流形时,常用的非欧几里得回归模型可扩充至通用的深度神经网络,并且该扩充同样应用在用于分层学习的双曲线正切前馈网络上。
Jun, 2020
通过 Barron 定理,我们证明了一组满足某些 Fourier 条件的函数的组合可以通过一个多达 $n+1$ 层的神经网络来逼近,为深度神经网络的表达能力提供了解释。英文原文主要探讨了神经网络的一些基本性质以及其在生成模型领域的应用,建议阅读原文以获取更多细节。
Feb, 2017