等价线性神经网络集合的几何结构
通过引入递归算法,我们生成多项式方程,其共同零点对应于相应神经多丘道的 Zariski 闭包。此外,我们还利用度量代数几何的工具来研究训练这些网络的代数复杂度。我们的研究发现,此类网络的优化中的所有复杂临界点的数量等于 Segre 多样性的一般欧几里得距离度。值得注意的是,这个数量显著超过了具有相同参数数量的全连接线性网络的训练中遇到的关键点数量。
Jan, 2024
本文结合奇异黎曼几何对深度神经网络进行了研究,提出了构建输入点等价类的方法,它为新合成数据的生成提供了途径,并能提供分类器误判原因的洞察。
Dec, 2021
研究使用单项式激活函数的多项式神经网络 (PNNs) 的表达能力和学习过程。探讨了使用代数几何工具对某些神经流形进行研究:给出了半代数集的显式描述,并表征了其 Zariski 闭包,称之为神经多样性。研究了神经多样性的维度,并将一个代数度量,即学习度,与神经多样性相关联。维度用作网络表达能力的几何度量,学习度用作训练网络的复杂度度量,并提供了可学习函数数量的上限。这些理论结果与实验证明相伴。
Feb, 2024
线性全连接神经网络所参数化的函数集合是一个行列式变种。我们研究了在置换群的作用下等变或不变的函数子变种。对于这些等变或不变的子变种,我们提供了其维数、度数以及欧氏距离度数和奇点的明确描述。我们对任意置换群完全表征了不变性和循环群的等变性。我们对等变和不变的线性网络的参数化和设计提出了结论,如权重共享特性,并证明所有不变的线性函数可以通过线性自编码器进行学习。
Sep, 2023
对于多层神经网络中的权值空间,MLN 是精确可解的模型,具有复制对称性,通过内部表达与训练集相关的偶奇和委员会机器等,推导其学习和泛化能力,并找到了一些新的精确结果。
Jan, 1995
通过 Betti 数我们研究了在经过深度神经网络的各个层时,特征嵌入空间的拓扑结构如何变化。我们使用了拓扑同调理论中的方格同调进行了扩展分析,使用了各种流行的深度架构和真实图像数据集。我们证明随着深度的增加,一个拓扑上复杂的数据集会被转换成一个简单的数据集,Betti 数会取得最低可能的值。拓扑复杂度的衰减速率可以量化架构选择对泛化能力的影响。此外,我们从表示学习的角度强调了几种不变性,例如 (1) 相似数据集上的体系结构、(2) 深度可变的嵌入空间、(3) 嵌入空间与输入分辨率 / 大小以及 (4) 数据子采样。为了进一步证明网络的表达能力与泛化能力之间的联系,我们考虑了下游分类任务 (迁移学习) 中预训练模型的排序任务。与现有方法相比,所提出的度量方法与通过微调预训练模型实际可达到的准确性具有更好的相关性。
Nov, 2023
本论文研究基于 Riemannian 几何的新方法,探索深度神经网络在流形之间的映射及其导致的结构,指出其 pullbacks 在其他流形上生成了诱导偏度量空间的退化 Riemann 度量,给出了这种映射的理论性质,并在实用神经网络中应用其几何框架
Dec, 2021
这篇研究使用 persistent homology 方法来检测比较难以用传统统计方法描述的网络拓扑结构,将加权网络基于这些结构分类为具有不同特征的两类,并将代数拓扑工具引入复杂系统中。
Jan, 2013