本文使用直接代数证明了通用逼近定理,进一步量化了逼近所需的隐层单元数,并且证明了在权重上施加限制下仍然保持均匀逼近性质。
Feb, 2020
研究发现,对于几乎所有已知的激活函数类型,存在简单的(大致上是径向的)函数在 $ eals^d$ 上,可由小型三层前馈神经网络表达,但无法用任何二层网络近似到特定常数精度以上,除非它的宽度在指数级别。此结果证明了深度比宽度对于标准前馈神经网络的提升,即使只增加了 1 层,其价值也可以是指数级别。此外,相比于布尔函数相关研究,该结果需要更少的假设,并且证明技巧和构造方法非常不同。
Dec, 2015
证明深度神经网络可以有效逼近多元多项式,但当只有一个隐藏层时,所需的神经元数量呈指数级增长;另一方面,增加隐藏层数量从 1 到 k 时,所需的神经元数量的增长速度是随着 n^(1/k) 对数增长,暗示了实用的表达所需的最小层数仅对 n 进行对数级增长。
May, 2017
该论文证明了神经网络在宽度有限和深度任意的情况下的一些定理,进一步探讨了各种激活函数的影响。
May, 2019
使用复合的神经元重组,提出一种新的针对 ReLU 网络的训练方法,使得仅需使用数目较少的神经元就可以进行近似记忆,并且权重大小接近最优。
Jun, 2020
本文介绍了一种基于乘积构建出的新型激活函数的多项式前向神经网络,其可以被标准训练技术(如批量归一化和丢弃)所训练,并且在回归和分类任务上表现良好,同时具有一些在贝叶斯学习中非常有用的解析计算数量。
Jun, 2021
通过计算雅可比矩阵中涉及亏格阵幂和 Khati-Rao 乘积的矩阵的秩,我们确定了具有 m 个隐藏神经元和输入维度 d(即,md+m 个可训练参数)的双层神经网络的记忆容量下界为 md/2,并以大约 2 倍的优势进行了最优性分析。
Aug, 2023
研究了深度神经网络与浅层网络的比较,发现对于大部分分段光滑函数,相对于浅层网络,深度神经网络可以使用更少的神经元来实现相同的函数逼近程度。
Oct, 2016
本文探究神经网络模型,证明了具有 sigmoid 或 ReLU 激活函数的过度参数化的模型在训练数据超过一定数量后,具有百分之百的记忆能力。
Jan, 2020
活动函数不同,图神经网络在两层迭代中可以区分两个非同构树的根节点,但是若网络的大小被限制,其区分能力将受到限制。
Jul, 2023