研究使用单项式激活函数的多项式神经网络 (PNNs) 的表达能力和学习过程。探讨了使用代数几何工具对某些神经流形进行研究:给出了半代数集的显式描述,并表征了其 Zariski 闭包,称之为神经多样性。研究了神经多样性的维度,并将一个代数度量,即学习度,与神经多样性相关联。维度用作网络表达能力的几何度量,学习度用作训练网络的复杂度度量,并提供了可学习函数数量的上限。这些理论结果与实验证明相伴。
Feb, 2024
本文提出了一种新的神经网络表达性问题的方法,其中基于轨迹长度的一维路径上的输出是一种新颖的表达形式。实验得出:(1)计算的函数复杂度随深度指数增长;(2)所有权重不同,加上轨迹正则化是批标准化的一个更简单的选择,但表现相同。
Jun, 2016
本文研究神经网络的表达能力,提出了三种衡量表达能力的自然量,并探讨了神经网络层数与表达能力之间的关系,特别地找出了深度敏感性所在,同时分析了训练和输入 - 输出映射等因素对表达能力的影响。
Nov, 2016
本文研究神经网络的宽度对其表达能力的影响,证明了 width-$(n+4)$ ReLU 神经网络是一种通用逼近器,同时存在一些无法用宽度为 $n$ 的神经网络进行逼近的函数,表现出相变现象,结果展示了深度对 ReLU 网络的表达能力比宽度更为有效。
Sep, 2017
证明深度神经网络可以有效逼近多元多项式,但当只有一个隐藏层时,所需的神经元数量呈指数级增长;另一方面,增加隐藏层数量从 1 到 k 时,所需的神经元数量的增长速度是随着 n^(1/k) 对数增长,暗示了实用的表达所需的最小层数仅对 n 进行对数级增长。
May, 2017
本文介绍了一种基于乘积构建出的新型激活函数的多项式前向神经网络,其可以被标准训练技术(如批量归一化和丢弃)所训练,并且在回归和分类任务上表现良好,同时具有一些在贝叶斯学习中非常有用的解析计算数量。
Jun, 2021
本文证明 Tensor Train 分解的一类循环神经网络的表达能力理论上是指数级别的,与 Hierarchical Tucker 张量分解所对应的深度卷积网络相比,使用 RNN 对图像进行逐块处理可以比使用仅具有一个隐藏层的 (浅层) 卷积网络更加高效。
Nov, 2017
本篇研究工作将深度分类器的研究归纳到一个统一的框架下,其中将最先进的架构用不同程度的多项式形式表示,并对其进行了评估,结果表明其在模型性能和模型压缩方面具有高表现性,并且在有限数据和长尾数据分布存在的情况下具有优异的效果。
Apr, 2021
通过研究维度对 DeepSets 的表达能力的影响,本文提出了两种集合元素嵌入层,证明了维度为 poly (N,D) 足以实现集合表示,并给出了 LP 嵌入层的下界。此外,将研究结果扩展到排列等变的集合函数和复数场。
Jul, 2023
图神经网络的表达能力可以完全用合适的一阶逻辑片段来描述。本文通过证明 GC2 查询不能由具有多项式激活函数的图神经网络表示,证明了多项式和流行的非多项式激活函数之间存在分离关系。
Oct, 2023