使用信息瓶颈(IB)原理分析深度神经网络(DNN)的信息流,并得到 DNN 的理论极限及有限样本泛化的上限,同时探讨了网络的优化模型,层数和特征 / 连接与信息瓶颈权衡中的分叉点的关系,其中对应了网络层级结构上的结构相变。
Mar, 2015
该论文介绍了信息瓶颈理论作为一种信息理论范例来分析机器学习中使用深度学习等算法进行降维操作的有效性,并总结了其在深度学习理论中的重要性和实际算法的启示。
Apr, 2020
本研究旨在比较和统一先前提出的信息瓶颈原则中的多个竞争目标,并开发更友好的替代目标,以便将信息瓶颈应用于现代深度神经网络结构,无需依赖于像密度估计这样的繁琐工具。研究结果可以在现代 DNN 结构(ResNets)上展示。
Mar, 2020
使用变分近似方法为信息瓶颈提供新的、更紧的下界,从而提高先前基于信息瓶颈的深度神经网络的性能,并显著增强分类深度神经网络的对抗鲁棒性。
Feb, 2024
信息瓶颈是一种信息论表示学习原理,旨在学习一个最大压缩的表示,以尽可能保留关于标签的信息。本文研究了信息瓶颈和确定性信息瓶颈在迁移学习情景中的泛化能力,并提出了一种弹性信息瓶颈方法,通过在信息瓶颈和确定性信息瓶颈正则化之间插值来平衡源泛化差距和表示不一致性,实验证明该方法在领域自适应方面表现更好。
Nov, 2023
采用信息论正则化目标和一个退火优化方法来提高强化学习代理的泛化能力,从而在不同领域的任务中实现极端泛化,揭示信息理论和机器学习之间的联系。
Aug, 2020
通过研究使用信息瓶颈功能最小化来训练深度神经网络进行分类的理论论文,我们发现这种优化问题存在严重问题,方法包括使用随机神经网络、更加稳定的代价函数和设计直接实现所需属性的潜在表示的正则化项。
Feb, 2018
本文主要讨论信息瓶颈问题,包括如何解决它、与编码和学习方面的联系,以及其对分布式信息瓶颈问题和高斯模型的扩展。同时探讨其与自动编码器、表征学习、变分推断和通用重建等方面的紧密联系。
Jan, 2020
提出了一种用于在监督学习中提取特征的新策略,该方法在信息瓶颈的基础上引入了一个额外的惩罚项来鼓励提取的特征的 Fisher 信息在参数化输入时变小,从而实现分类器的更好鲁棒性。
Oct, 2019
本文将因果推断应用于信息瓶颈方法中,通过仪器变量对特征进行分离,以减轻因虚假相关性导致的限制,提高对抗鲁棒性。大量实验结果表明,该方法在 MNIST、FashionMNIST 和 CIFAR-10 数据集中有明显的对抗攻击鲁棒性。
Oct, 2022