探究神经坍塌现象在深度学习中的作用,研究神经坍塌现象对于泛化能力与优化能力的影响,发现神经坍塌现象主要是一种优化现象,同时也探究了神经坍塌现象在特征学习等方面的表现。
Feb, 2022
本文研究基础模型学习分类表示在转移学习中的能力。我们通过解释过参数分类器所学习到的特征在转移学习中的普遍适用性,展示神经坍塌现象在样本训练类和新类别上的泛化性,并能成功应用在少样本学习任务中。
Dec, 2021
分类神经网络的中间隐藏层中出现一定程度的神经崩溃,而崩溃的程度通常与该层的深度正相关。此外,浅层网络主要减少样本内类别方差,类之间的角度分离随着隐藏层深度的增加而增加。实验结果提供了有关特征在分类神经网络中结构传播的细粒度洞察。
Aug, 2023
元学习框架用于少样本学习,旨在学习能够快速学习新技能或适应新环境的模型。本研究首次探索和理解元学习框架中神经坍塌现象的特性,观察到学习到的特征确实呈现神经坍塌趋势,然而并不完全符合神经坍塌性质的度量。通过在 Omniglot 数据集上进行研究,揭示了表示学习中的神经坍塌现象。
Sep, 2023
神经崩溃是最后一层神经网络分类器中出现的几何结构,本文研究了批归一化和权重衰减对神经崩溃的影响,并提出了几何直观的类内和类间余弦相似度度量来捕捉神经崩溃的核心方面。结果表明,批归一化和权重衰减可能是神经崩溃出现的基本因素。
本文研究神经网络的一种几何模式 —— 神经坍塌现象。我们提出了一个模型 —— 无约束层剥模型(ULPM),证明了该模型的梯度流收敛到一个最小范数分离问题的临界点,表现出全局最小化时神经坍塌现象。此外,我们还表明,采用交叉熵损失函数的 ULPM 具有良好的全局景观,所有临界点都是严格鞍点,除全局最小值外不发生神经坍塌现象。我们的实验证明,即使不使用显式正则化或权重衰减,我们的结果也适用于神经网络的实际任务训练。
Oct, 2021
本文探讨了神经坍塌现象及其在分类问题中的应用,提出了限制表达能力的神经网络模型和误差扩散现象的模型,并证明标签平滑方法可以提高分类任务的泛化能力。
Jun, 2022
研究表明,深度神经网络中的最后一层特征和分类器在经过训练直至收敛后仍呈现出相同的结构特性,表现为神经崩塌现象。本研究进一步证明了这种现象在深度线性网络中同样存在,并且成功地拓展到了失衡数据的情况下。实验证明了我们的理论分析。
Jan, 2023
本文介绍了一种简单的 “不受限特征模型”,该模型中神经网络崩溃现象得以实证,通过研究该模型,我们提供了关于神经网络崩溃产生原因的一些解释,从经验风险的角度进行解释。
Nov, 2020
深度神经网络中神经崩溃现象及其对泛化性能的影响,以及多类支持向量机、非保守性泛化等的理论解释与实验观察。
Oct, 2023