通过研究使用信息瓶颈功能最小化来训练深度神经网络进行分类的理论论文,我们发现这种优化问题存在严重问题,方法包括使用随机神经网络、更加稳定的代价函数和设计直接实现所需属性的潜在表示的正则化项。
Feb, 2018
该研究利用 Information Bottleneck 原理和深度神经网络,采用互信息和压缩等技术,针对高维随机向量实现了对一般深度神经网络的信息瓶颈分析,并在一个近实际规模的卷积深度神经网络上揭示了互信息动态的新特征。
May, 2023
使用变分近似方法为信息瓶颈提供新的、更紧的下界,从而提高先前基于信息瓶颈的深度神经网络的性能,并显著增强分类深度神经网络的对抗鲁棒性。
Feb, 2024
本研究通过信息平面可视化深度神经网络,发现在标准深度学习中,大部分训练周期都用于对输入进行压缩以生成有效表示,而非适应标签,当训练误差变小并且随机梯度下降下降进入随机扩散阶段时,表征压缩阶段开始。隐藏层的加入可以极大的缩短训练时间。
Mar, 2017
本研究旨在比较和统一先前提出的信息瓶颈原则中的多个竞争目标,并开发更友好的替代目标,以便将信息瓶颈应用于现代深度神经网络结构,无需依赖于像密度估计这样的繁琐工具。研究结果可以在现代 DNN 结构(ResNets)上展示。
Mar, 2020
该论文介绍了信息瓶颈理论作为一种信息理论范例来分析机器学习中使用深度学习等算法进行降维操作的有效性,并总结了其在深度学习理论中的重要性和实际算法的启示。
Apr, 2020
本文提出了深度学习中信息瓶颈的学习理论模型,证明控制信息瓶颈是控制深度学习泛化误差的一种方式,并通过一系列实验展示了信息瓶颈程度与泛化误差的相关性。
信息瓶颈是一种信息论表示学习原理,旨在学习一个最大压缩的表示,以尽可能保留关于标签的信息。本文研究了信息瓶颈和确定性信息瓶颈在迁移学习情景中的泛化能力,并提出了一种弹性信息瓶颈方法,通过在信息瓶颈和确定性信息瓶颈正则化之间插值来平衡源泛化差距和表示不一致性,实验证明该方法在领域自适应方面表现更好。
Nov, 2023
通过拟合互信息的规范化核格拉姆矩阵,我们提出了一种新的可微信息瓶颈方法 (DIB),通过确定性和解析的方式有效地进行多视角聚类,实现了输入变量从不同视角的确定性压缩。
Mar, 2024
本文从信息瓶颈原理的角度分析了二值神经网络的训练动态,发现其不同于深度神经网络,同时发现二值神经网络会在表示压缩和损失拟合之间同时进行,从而发现其训练动态与激活函数无关
Jun, 2020