基于信息瓶颈方法探究有监督对比学习中的神经网络崩溃
通过研究使用信息瓶颈功能最小化来训练深度神经网络进行分类的理论论文,我们发现这种优化问题存在严重问题,方法包括使用随机神经网络、更加稳定的代价函数和设计直接实现所需属性的潜在表示的正则化项。
Feb, 2018
研究表明,深度神经网络中的最后一层特征和分类器在经过训练直至收敛后仍呈现出相同的结构特性,表现为神经崩塌现象。本研究进一步证明了这种现象在深度线性网络中同样存在,并且成功地拓展到了失衡数据的情况下。实验证明了我们的理论分析。
Jan, 2023
该研究利用 Information Bottleneck 原理和深度神经网络,采用互信息和压缩等技术,针对高维随机向量实现了对一般深度神经网络的信息瓶颈分析,并在一个近实际规模的卷积深度神经网络上揭示了互信息动态的新特征。
May, 2023
通过对参数的演化,我们全面分析了深度神经网络的学习动态,发现存在三个阶段:接近恒定的重建损失、下降和上升。我们还通过经验实证建立了数据模型,并对单层神经网络证明了阶段的存在。我们的工作为迁移学习提供了新的最佳实践:通过实验证明预训练的分类器在性能达到最优之前应该停止。
Dec, 2023
使用信息瓶颈(IB)原理分析深度神经网络(DNN)的信息流,并得到 DNN 的理论极限及有限样本泛化的上限,同时探讨了网络的优化模型,层数和特征 / 连接与信息瓶颈权衡中的分叉点的关系,其中对应了网络层级结构上的结构相变。
Mar, 2015
本研究通过信息平面可视化深度神经网络,发现在标准深度学习中,大部分训练周期都用于对输入进行压缩以生成有效表示,而非适应标签,当训练误差变小并且随机梯度下降下降进入随机扩散阶段时,表征压缩阶段开始。隐藏层的加入可以极大的缩短训练时间。
Mar, 2017
使用统计和信息理论的已建立原则,我们展示了深度神经网络中对无关因素的不变性等同于学习表示的信息最小性,而叠加层和在训练期间注入噪声自然偏向于学习不变表示。我们进一步分解了训练过程中使用的交叉熵损失,强调了内在的过拟合项。我们提出通过两种等效方式来限制这样的项的正则化损失:一种是使用 Kullbach-Leibler 项,它与 PAC-Bayes 视角相关;另一种是使用权重中的信息作为学习模型复杂度的度量,从而为权重提供了一种新的信息瓶颈。最后,我们展示出在神经网络中学习到的表示组件的不变性和独立性在权重中的信息上限和下限是有界的,因此在训练过程中自动优化。该理论使我们能够量化和预测使用我们的正则化损失时随机标签下欠拟合和过拟合之间的尖锐相变,我们通过实验证实了这一点,并阐明了损失函数的几何形状、学习表示的不变性属性和泛化误差之间的关系。
Jun, 2017
通过研究信息瓶颈 (IB) 目标函数中的多个相变,我们引入了 IB 相变的定义作为 IB 损失函数景观的定性变化,并提出了一个公式,为 IB 相变提供了实际条件,从而预测了数据集的阶段性变化和分类难度。
Jan, 2020