深度神经网络的拓扑学
本研究旨在探究深度神经网络的通用逼近性质与数据集拓扑特征之间的关系,并通过拓扑结构推导出限制网络宽度的上界。通过设计三层神经网络中的 ReLU 激活函数和最大池化操作,可以逼近一个由紧凑凸多面体包围的指示函数,同时拓展到单纯复合体,以拓扑空间的 Betti 数限制推导上界,并进一步证明了三层 ReLU 网络的通用逼近性质。
May, 2023
通过 Betti 数我们研究了在经过深度神经网络的各个层时,特征嵌入空间的拓扑结构如何变化。我们使用了拓扑同调理论中的方格同调进行了扩展分析,使用了各种流行的深度架构和真实图像数据集。我们证明随着深度的增加,一个拓扑上复杂的数据集会被转换成一个简单的数据集,Betti 数会取得最低可能的值。拓扑复杂度的衰减速率可以量化架构选择对泛化能力的影响。此外,我们从表示学习的角度强调了几种不变性,例如 (1) 相似数据集上的体系结构、(2) 深度可变的嵌入空间、(3) 嵌入空间与输入分辨率 / 大小以及 (4) 数据子采样。为了进一步证明网络的表达能力与泛化能力之间的联系,我们考虑了下游分类任务 (迁移学习) 中预训练模型的排序任务。与现有方法相比,所提出的度量方法与通过微调预训练模型实际可达到的准确性具有更好的相关性。
Nov, 2023
该论文研究神经网络层内部如何保留拓扑特征。使用拓扑数据分析技术,计算了一个简单前馈神经网络的层表征在类克莱因瓶扭结构变化下的拓扑特征。在较早层,网络看起来近似于同胚,但在较深层时数据的拓扑结构被明显更改,导致持久同调无法计算这些特征。但在具有双射激活函数的网络中,类似的拓扑特征似乎可以更持久地存在。
Jul, 2022
通过拓扑学的角度研究了 ReLU 神经网络在二分类问题中的表达能力。研究结果揭示,深层 ReLU 神经网络在拓扑简化方面远比浅层网络强大,这从数学上解释了为何深层网络更适用于处理复杂和拓扑丰富的数据集。
Oct, 2023
通过对多层神经网络中的损失函数的拓扑度量,研究比较深层和浅层架构的复杂性以及其受隐藏单元数量、训练模型和激活函数的影响,揭示了一些特定情况下,添加正则项或在前馈网络中实施跳跃连接等对损失拓扑没有影响。
Jan, 2024
本文利用三角化的方法研究了 ReLU 网络在初始化和梯度下降时的多面体形状,并发现它们相对简单,这是一种新的隐式偏差。此外,本研究还通过界定多面体面的平均数来理论上解释了为什么增加深度不会创建更复杂的多面体,并揭示了网络的简单函数模型和空间分割特性,这些结果具有重要的功能复杂性度量、正则化策略影响等方面的应用潜力。
May, 2023
分析神经网络固定尺寸的函数集的拓扑特征表明,这个集合有许多不良属性,包括高度非凸性,对 $L^p$ 范数的不闭合性,对权重不具有反稳定性等等,这表明深度学习训练过程中存在潜在的收敛性,参数爆炸和学习缓慢等问题。
Jun, 2018
本文回顾了最近关于层级神经网络结构的研究成果,探讨了深度卷积神经网络优于浅层神经网络在函数近似问题中的表现条件。本文提出了一个新的对于相对维度的定义,该定义可以被深层网络而非浅层网络使用以显著降低近似和学习所需的复杂度。同时,本文还宣布了关于当前神经网络中使用的非平滑激活函数 - ReLU 函数以及高斯网络的新结果。
Aug, 2016
利用聚合函数表达的子函数描述构成的有向无环图,深度网络比浅层网络更好地逼近这些函数,因为深度网络可以被设计成具有相同的组合结构,而浅层网络无法利用这一知识,组合性的祝福缓解了维数灾难,而称为良好误差传播的定理允许通过选择适当的范数、平滑度等将有关浅层网络的定理推广到有关深层网络的定理。我们在三个环境中说明了这一点,其中每个通道在深层网络中计算球面多项式、非平滑 ReLU 网络或与 ReLU 网络密切相关的另一种区域函数网络。
May, 2019