带变分信息瓶颈的相关稀疏编码
该研究提出了一种方法,通过神经网络来实现将任意分布的离散和 / 或连续变量进行信息瓶颈编码和解码,并允许使用非线性映射,该方法通过一种新颖非参数上界来实现最大信息提取,相较于其他方法在多个真实数据集上表现更好。
May, 2017
本文研究信息瓶颈(IB)在有监督学习中的应用,提出了一个新的函数来解决 IB 曲线无法被最大化 IB Lagrangian 找到的问题。文章展示了本文提出的三个严重的警告,并在 MNIST 数据集上进行了演示。
Aug, 2018
本文从监督解缠角度实现信息瓶颈方法,引入 DisenIB,以最大压缩的方式坚持最大化压缩源,而不会损失目标预测性能。理论和实验结果表明,我们的方法在最大压缩方面是一致的,并在泛化、对抗攻击鲁棒性、超出分布检测和监督解缠等方面表现良好。
Dec, 2020
该研究提出了一种在信号处理和学习中使用的方法,通过压缩信号 $x$ 来提取其对另一个信号 $y$ 的最大信息,使用一组有限的编码词 $tX$ 来限制信息流,并使用 Blahut-Arimoto 算法求解编码规则。
Apr, 2000
本文提出一种通用的拉格朗日算子族,允许在所有情况下探索 IB 曲线,并提供拉格朗日乘子与所需压缩率 r 之间的精确一对一映射,同时证明可以通过凸 IB 拉格朗日以及这些 Lagrangian 对于已知和未知的 IB 曲线形状进行逼近以消除求解优化问题的负担。
Nov, 2019
本研究提出了一种创新的分类任务框架,称为 Flexible Variational Information Bottleneck (FVIB),通过单一、高效的训练可以获取在所有 $eta$ 值上的最优模型,并且在校准性能方面优于其他信息瓶颈和校准方法。
Feb, 2024
该研究提出了一种变分带宽瓶颈方法,针对含有 “特权” 输入的问题设置,根据所使用的标准输入对特权输入的值进行估计,并基于此选择随机访问或不访问特权输入,以实现压缩和通用性或降低通信成本等目的,该方法在强化学习实验中得到应用。
Apr, 2020
通过信息论,我们提出了一个可以重新演绎和推广现有变分方法,并设计新方法的统一原则。我们的框架基于多变量信息瓶颈的解释,其中两个贝叶斯网络相互权衡。我们将第一个网络解释为编码器图,指定了在压缩数据时要保留哪些信息;我们将第二个网络解释为解码器图,为数据指定了生成模型。利用这个框架,我们重新演绎了现有的降维方法,如深度变分信息瓶颈 (DVIB),Beta 变分自动编码器 (beta-VAE) 和深度变分规范相关分析 (DVCCA)。该框架在 DVCCA 算法族中自然引入了一个压缩和重建之间的权衡参数,从而产生了新的 Beta-DVCCA 算法族。此外,我们推导出了一种新的变分降维方法,深度变分对称信息瓶颈 (DVSIB),它可以同时压缩两个变量以保留它们压缩表示之间的信息。我们实现了所有这些算法,并在经过修改的噪声 MNIST 数据集上评估它们产生共享低维潜空间的能力。我们展示了与数据结构更匹配的算法 (Beta-DVCCA 和 DVSIB) 如何通过分类准确性和潜变量的维度来测量产生更好的潜空间。我们相信这个框架可以用来统一其他多视图表示学习算法,此外,它还为推导问题特定的损失函数提供了一个直观的框架。
Oct, 2023
提出了一种用于在监督学习中提取特征的新策略,该方法在信息瓶颈的基础上引入了一个额外的惩罚项来鼓励提取的特征的 Fisher 信息在参数化输入时变小,从而实现分类器的更好鲁棒性。
Oct, 2019