脑及其他领域中的拓扑表示相似性分析
为了理解生物和人工神经网络的操作,研究者们需要一个标准化的工具集来量化其结构等因素对神经表征的影响,这篇论文提出了一族量化表征不同神经网络之间相似性的度量空间,利用这个框架使得神经网络表征可以整合进任意的机器学习方法中,然后利用大规模生物和深度学习数据集来验证这些方法,最终找出了神经表征之间与结构和性能之间的关系。
Oct, 2021
提出了基于Representation Topology Divergence(RTD)的数据表示比较方法,该方法是few TDA-based practical methods之一,可以应用于真实的机器学习数据集,用于对计算机视觉和NLP领域中的神经网络表示进行分析。
Dec, 2021
该研究提出了一种基于拓扑数据分析和图形方法的统计算法,先前的研究对比了模型和大脑中不同区域的表示几何之间的差异,而这种方法强调了表示拓扑和几何的结构, 可以用于模型比较和选择,并可用于探索计算机和神经网络模型之间的关系和相互作用。
Mar, 2022
该论文研究神经网络层内部如何保留拓扑特征。使用拓扑数据分析技术,计算了一个简单前馈神经网络的层表征在类克莱因瓶扭结构变化下的拓扑特征。在较早层,网络看起来近似于同胚,但在较深层时数据的拓扑结构被明显更改,导致持久同调无法计算这些特征。但在具有双射激活函数的网络中,类似的拓扑特征似乎可以更持久地存在。
Jul, 2022
使用基于数据驱动的动态系统理论的最新进展和一种新的相似度度量方法,我们能够比较两个递归神经网络并识别它们之间的动态结构,同时能以无监督的方式区分学习规则。
Jun, 2023
探索了拓扑脑表示相似性分析(tRSA),一种推广了脑表示相似性分析(RSA)的几何与拓扑摘要统计的家族,该方法可用于表征脑表示的拓扑特征并在噪音和个体变异性方面具有鲁棒性,在模拟和功能性磁共振成像(fMRI)数据上进行了评估。
Sep, 2023
通过Betti数我们研究了在经过深度神经网络的各个层时,特征嵌入空间的拓扑结构如何变化。我们使用了拓扑同调理论中的方格同调进行了扩展分析,使用了各种流行的深度架构和真实图像数据集。我们证明随着深度的增加,一个拓扑上复杂的数据集会被转换成一个简单的数据集,Betti数会取得最低可能的值。拓扑复杂度的衰减速率可以量化架构选择对泛化能力的影响。此外,我们从表示学习的角度强调了几种不变性,例如(1)相似数据集上的体系结构、(2)深度可变的嵌入空间、(3)嵌入空间与输入分辨率/大小以及(4)数据子采样。为了进一步证明网络的表达能力与泛化能力之间的联系,我们考虑了下游分类任务(迁移学习)中预训练模型的排序任务。与现有方法相比,所提出的度量方法与通过微调预训练模型实际可达到的准确性具有更好的相关性。
Nov, 2023
该研究综述了拓扑数据分析(TDA)在神经网络分析中的应用,并通过使用TDA工具如持久性同调和Mapper来探究神经网络及其数据集的复杂结构和行为。研究讨论了从数据和神经网络中获取拓扑信息的不同策略,并回顾了拓扑信息如何被利用来分析神经网络的特性,如其泛化能力或表达能力。重点讨论了深度学习在对抗检测和模型选择等领域的实际应用。将研究工作分为四个广泛领域:1. 神经网络架构的特征化;2. 决策区域和边界的分析;3. 内部表示、激活和参数的研究;4. 训练动态和损失函数的探索。在每个类别中讨论了几篇文章,并提供背景信息,以帮助理解各种方法。最后,综合研究获得的关键见解,讨论了领域中的挑战和潜在进展。
Dec, 2023
通过拓扑数据分析法,我们提出了一种新颖的深度学习框架,以更好地分割和不确定性评估复杂的细微结构,如生物医学应用中的神经元、组织和血管,为可扩展的标注提供了有力工具。
Mar, 2024
本研究利用TDA方法分析神经网络的表示,并发现不同架构的表示存在巨大差异和一些相似之处;相似结构的模型具有类似的表示拓扑,而层数较多的模型则更平滑地改变拓扑;此外,预训练和微调模型的拓扑在中间和最后层开始呈现差异,而在初始层保持相似。这些发现证明了TDA方法在分析神经网络行为方面的有效性。
Jul, 2024