非一致性细胞自动机的一些点态和可判定性质
通过研究神经网络的一层隐藏层,我们发现所有在无穷远处趋于零的连续函数可以被具有渐近线性行为的非零连续激活函数的神经网络进行均匀逼近,并且我们确定了这些函数可被离散的 sigmoidal 函数的积的闭线性包所表示的代数结构。
Aug, 2023
通过证明参数矩阵、线性向量和 ReLU 激活函数这个控制组合能够统一逼近定义域在任意紧致区域的微分同胚,我们揭示了神经网络的逼近能力与控制系统之间的关联。
Dec, 2023
通过在时间方向上添加逐层非线性激活函数,我们证明堆叠状态空间模型能够近似任意连续序列关系,并增强模型学习复杂序列模式的能力,同时理论和实证结果表明状态空间模型并不能根本解决指数衰减记忆问题。
Sep, 2023
通过分析高度表达力模型的基本结构元素,我们引入了一个表达力类别的层次结构,将全局可近似性属性与无限 VC 维度的弱属性相连接,并证明了几个逐渐复杂的功能族的分类结果。特别地,我们介绍了一个通用的多项式 - 指数 - 代数功能族,经证明它受到了多项式约束。作为结果,我们表明具有不超过一层具有超越激活函数(如正弦或标准 sigmoid)的固定大小的神经网络通常无法近似任意有限集上的函数。另一方面,我们提供了包括两层隐藏层神经网络在内的函数族的示例,它们在任意有限集上可近似函数,但在整个定义域上却无法做到。
Nov, 2023
我们将神经网络的普适逼近定理推广到对于线性表示组不变或等变的映射,以建立一种像网络一样的计算模型,能够在能够逼近任何连续不变 / 等变映射的同时保持不变 / 等变。我们提出了完备的不变 / 等变网络的构造,通过引入中间多项式层,通过 Hilbert 和 Weyl 的定理证明了我们的构造方法。我们提出了适用于 SE(2)群的 “电荷守恒卷积” 模型,并证明其是连续 SE(2)等变信号变换的通用逼近器。
Apr, 2018
通过对神经网络的输入层和输出层进行修改,在保持其基本架构能力的同时,实现了任意连续函数在相应连续紧致集上的均一逼近能力。此研究同时发现当输入输出空间为 Cartan-Hadamard 流形时,常用的非欧几里得回归模型可扩充至通用的深度神经网络,并且该扩充同样应用在用于分层学习的双曲线正切前馈网络上。
Jun, 2020
线性全连接神经网络所参数化的函数集合是一个行列式变种。我们研究了在置换群的作用下等变或不变的函数子变种。对于这些等变或不变的子变种,我们提供了其维数、度数以及欧氏距离度数和奇点的明确描述。我们对任意置换群完全表征了不变性和循环群的等变性。我们对等变和不变的线性网络的参数化和设计提出了结论,如权重共享特性,并证明所有不变的线性函数可以通过线性自编码器进行学习。
Sep, 2023
通过广义代数中的定理(如 1970 年代的 Murski 定理),与 1980 年代 Cybenko 等人提出的神经网络的普遍逼近结果之间存在着惊人的相似性,我们在这里考虑了经典神经网络概念的离散模拟,将这些结果统一起来,并介绍了一种基于关系结构的多态函数的学习算法,并展示了如何将其应用于经典的学习任务。
Jul, 2023