神经表征的拓扑分类的秩分解
通过对二元分类问题的数据集进行拓扑学分析,研究网络层数对于数据拓扑的影响,发现神经网络能够通过非同胚映射改变数据的拓扑结构,且 ReLU 激活函数能更有效地实现拓扑的转换。
Apr, 2020
该论文研究神经网络层内部如何保留拓扑特征。使用拓扑数据分析技术,计算了一个简单前馈神经网络的层表征在类克莱因瓶扭结构变化下的拓扑特征。在较早层,网络看起来近似于同胚,但在较深层时数据的拓扑结构被明显更改,导致持久同调无法计算这些特征。但在具有双射激活函数的网络中,类似的拓扑特征似乎可以更持久地存在。
Jul, 2022
本文旨在比较和描述神经网络结构在几何和拓扑方面的内部表示和层间数据流动的拓扑和几何动态变化,并使用拓扑数据分析和持久性同调分形维数的概念,通过不同层次的数据集以及卷积神经网络和转换网络在计算机视觉和自然语言处理任务中的各种配置的广泛实验,为可解释的和可解释的 AI 的发展做出了贡献。
Jun, 2023
通过 Betti 数我们研究了在经过深度神经网络的各个层时,特征嵌入空间的拓扑结构如何变化。我们使用了拓扑同调理论中的方格同调进行了扩展分析,使用了各种流行的深度架构和真实图像数据集。我们证明随着深度的增加,一个拓扑上复杂的数据集会被转换成一个简单的数据集,Betti 数会取得最低可能的值。拓扑复杂度的衰减速率可以量化架构选择对泛化能力的影响。此外,我们从表示学习的角度强调了几种不变性,例如 (1) 相似数据集上的体系结构、(2) 深度可变的嵌入空间、(3) 嵌入空间与输入分辨率 / 大小以及 (4) 数据子采样。为了进一步证明网络的表达能力与泛化能力之间的联系,我们考虑了下游分类任务 (迁移学习) 中预训练模型的排序任务。与现有方法相比,所提出的度量方法与通过微调预训练模型实际可达到的准确性具有更好的相关性。
Nov, 2023
通过拓扑数据分析法,我们提出了一种新颖的深度学习框架,以更好地分割和不确定性评估复杂的细微结构,如生物医学应用中的神经元、组织和血管,为可扩展的标注提供了有力工具。
Mar, 2024
本文结合奇异黎曼几何对深度神经网络进行了研究,提出了构建输入点等价类的方法,它为新合成数据的生成提供了途径,并能提供分类器误判原因的洞察。
Dec, 2021
本文介绍了如何使用微分拓扑理论来解决 Deep Neural Networks 理论中的三个最基本挑战:表达能力,优化能力和泛化能力,特别是利用流形的微分拓扑模型来阐述 DNN 的损失函数、深度和宽度之间的交互,以及如何通过应用商拓扑来捕捉数据中的无关因素,从而实现对 DNN 架构的研究。
Nov, 2018
研究表明,完全连接的神经网络在非线性齐次时的表示成本收敛于非线性函数的排序上,然后研究了何时可以恢复数据的 “真实” 排名,最后发现自编码器具有最优非线性排名是自然的去噪声的。
Sep, 2022