- 神经算子的连续关注
用注意机制来设计神经操作器,在函数空间中进行 Transformers 的研究,证明其作为实践中的 Monte Carlo 或有限差分近似算符,同时介绍了函数空间泛化的 patching 策略和相关神经操作器的类,证明其在注意力函数空间表述 - 预训练变压器可作为通用逼近器
通过 prompt tuning 和 prefix-tuning,本论文探讨了预训练模型能否被任意修改以逼近序列到序列函数,证明了通过加前缀可以使比先前认为的更小的预训练模型成为普遍逼近模型。此外,本论文还给出了逼近函数所需前缀长度的限制。
- ReLU 与 Step 网络在浮点运算下的表现能力
利用浮点数和操作,研究了神经网络的表达能力,得出了使用二进制阈值单元或 ReLU 的神经网络可以记忆任何有限的输入 / 输出对并且可以在误差范围内近似任何连续函数的结论。
- 关于图神经网络的表达能力
该论文概述了图神经网络的 “表达能力” 概念,并就图神经网络的设计选择提供了有价值的见解。
- MM用神经 $k$ 形式进行简单表示学习
利用差分形式在 R^n 空间中创建单纯形的表示,提供了可解释性和几何一致性,实现了全局逼近,并超越现有的基于消息传递的神经网络,在利用具有节点特征作为坐标的几何图中获取信息方面有显著性能优势。
- 随机神经网络的通用逼近性质
研究了随机神经网络的普适逼近性质、Bochner 空间中的逼近速率和维度诅咒,以及与确定性神经网络的比较。
- ReLU 网络在紧致定义域上的全局逼近最小宽度
本文研究了有界宽度网络的通用逼近性质,证明了使用 ReLU 等激活函数时,将输入空间为 [0,1]^{d_x} 的 $L^p$ 函数逼近到输出空间为 R^{d_y} 所需的最小宽度恰为 max {d_x, d_y, 2}。同时证明了对于激活 - 深度神经网络的插值、逼近和可控性
我们通过控制理论研究将深层残差神经网络作为连续动力系统的表达能力。具体而言,我们考虑从监督学习中产生的两个特性,即通用插值 - 能够匹配任意输入和目标训练样本,以及紧密相关的通用逼近 - 能够通过流映射逼近输入 - 目标函数关系。在控制结构 - 通过 RNN 实现线性时不变(LTI)系统的通用逼近:随机性在水池计算中的力量
循环神经网络(RNN)被认为是在相对温和且普遍的条件下对动态系统进行普适逼近的工具,但通常在标准 RNN 训练中面临梯度消失和梯度爆炸问题。为解决这些问题,引入了一种特殊的 RNN,即储层计算(RC),其循环权重是随机化并且未经过训练,此方 - 离散神经网络与多态学习
通过广义代数中的定理(如 1970 年代的 Murski 定理),与 1980 年代 Cybenko 等人提出的神经网络的普遍逼近结果之间存在着惊人的相似性,我们在这里考虑了经典神经网络概念的离散模拟,将这些结果统一起来,并介绍了一种基于关 - 加权空间上函数输入映射的全局通用逼近
本文介绍了一种在可能是无限维的加权空间中定义的所谓功能输入神经网络,其值也可能在可能是无限维的输出空间中。通过在隐藏层映射中使用加性家族和应用于每个隐藏层的非线性激活函数,我们可以证明该模型具有全局通用逼近能力,适用于连续函数的一般化,超越 - 提示调整的普适性和限制性
研究预训练语言模型的 prompt tuning,从通用性和有限深度固定权重的预训练 transformers 的限制方面分析了 prompt tuning 的作用,证明了 prompt tuning 在有限深度 transformers - 使用复数深窄神经网络的通用逼近
本文研究了有界宽度和任意深度的复值神经网络的普适性,给出了激活函数对于网络是否能够进行任意精度的连续函数逼近的充分条件,并证明进行逼近所需的最小宽度。
- 非局部神经算子:通用逼近
此研究提出了一种被称为非局部神经算子(NNO)的候选算子, 允许在任意几何空间中对算子进行逼近,因此包括傅里叶神经算子(FNO)作为一个特例并展示了这个理论结果统一了广泛的神经算子结构的分析。
- 集合上函数的普适逼近
研究介绍了深度集模型的理论分析,发现只有当模型的潜空间具备足够高维度时,其可以作为连续集函数的通用逼近器。同时指出深度集模型可以被看作是 Janossy 池化范例的最有效体现,阐述了其在集合学习中的广泛应用以及问题。
- MM可微几何深度学习的通用逼近定理
本文主要研究基于几何深度学习 (GDL) 框架的通用前馈神经网络的构建方法,用于处理非欧几里得数据,并得出了一些曲率相关的下界和上界等结论。同时,文章给出了可以保证该方法不失效的数据相关条件。
- 岭波优先:贝叶斯神经网络的先验规范的协方差函数方法
本文介绍了一种名为 ridgelet 先验的正态分布方法,用以在贝叶斯神经网络中为参数施加有意义的先验分布,解决了该网络输出空间中的不确定性量化问题,并证明了 Bayesian 神经网络可以近似于某些正态分布,同时提供了有限样本大小错误界, - 通用逼近的最小宽度
使用 ReLU 激活功能的网络的最小宽度是 $L^p$ 函数的普遍逼近所需的确切字符,是输入维度 $d_x+1$ 和输出维度 $d_y$ 的最大值。
- 非欧几里德通用逼近
通过对神经网络的输入层和输出层进行修改,在保持其基本架构能力的同时,实现了任意连续函数在相应连续紧致集上的均一逼近能力。此研究同时发现当输入输出空间为 Cartan-Hadamard 流形时,常用的非欧几里得回归模型可扩充至通用的深度神经网 - 用于非规则时间序列的神经控制微分方程
本研究介绍了一个新的神经模型:神经控制微分方程模型,解决了利用常规微分方程对时间动态进行建模时无法针对后续观察调整轨迹的问题,并通过实验和理论结果展示其在较多数据集上实现了与其他神经网络模型相当的最佳性能