确定性场景中信息瓶颈的注意事项
该研究提出了一种方法,通过神经网络来实现将任意分布的离散和 / 或连续变量进行信息瓶颈编码和解码,并允许使用非线性映射,该方法通过一种新颖非参数上界来实现最大信息提取,相较于其他方法在多个真实数据集上表现更好。
May, 2017
本文提出一种通用的拉格朗日算子族,允许在所有情况下探索 IB 曲线,并提供拉格朗日乘子与所需压缩率 r 之间的精确一对一映射,同时证明可以通过凸 IB 拉格朗日以及这些 Lagrangian 对于已知和未知的 IB 曲线形状进行逼近以消除求解优化问题的负担。
Nov, 2019
本文从监督解缠角度实现信息瓶颈方法,引入 DisenIB,以最大压缩的方式坚持最大化压缩源,而不会损失目标预测性能。理论和实验结果表明,我们的方法在最大压缩方面是一致的,并在泛化、对抗攻击鲁棒性、超出分布检测和监督解缠等方面表现良好。
Dec, 2020
该论文介绍了信息瓶颈理论作为一种信息理论范例来分析机器学习中使用深度学习等算法进行降维操作的有效性,并总结了其在深度学习理论中的重要性和实际算法的启示。
Apr, 2020
本文介绍一种替代信息瓶颈方法(IB)的确定性信息瓶颈(DIB),使用熵来度量压缩,得到硬聚类的解决方案,与 IB 相比,DIB 在 DIB 成本函数上明显优于 IB,并在收敛参数范围内提供计算效率的大幅提升。
Apr, 2016
本文提出 Information Bottleneck (IB) 方法用于表征学习。通过调整拉格朗日乘子 $eta$ 实现压缩和预测之间的平衡,同时为 IB-learnability 提供理论指导和适当的算法来估计最小 $eta$。作者通过分析合成数据集、MNIST 和 CIFAR-10 数据集来验证理论条件。
Jul, 2019
信息瓶颈是一种信息论表示学习原理,旨在学习一个最大压缩的表示,以尽可能保留关于标签的信息。本文研究了信息瓶颈和确定性信息瓶颈在迁移学习情景中的泛化能力,并提出了一种弹性信息瓶颈方法,通过在信息瓶颈和确定性信息瓶颈正则化之间插值来平衡源泛化差距和表示不一致性,实验证明该方法在领域自适应方面表现更好。
Nov, 2023
本研究提出了一种数值算法来解决信息瓶颈问题,该算法通过理解信息编码动态和 bifurcation 类型的变化,沿着最优曲线追踪解决方案的轨迹。
Jun, 2023
本文将因果推断应用于信息瓶颈方法中,通过仪器变量对特征进行分离,以减轻因虚假相关性导致的限制,提高对抗鲁棒性。大量实验结果表明,该方法在 MNIST、FashionMNIST 和 CIFAR-10 数据集中有明显的对抗攻击鲁棒性。
Oct, 2022