通过拟合互信息的规范化核格拉姆矩阵,我们提出了一种新的可微信息瓶颈方法 (DIB),通过确定性和解析的方式有效地进行多视角聚类,实现了输入变量从不同视角的确定性压缩。
Mar, 2024
通过信息论,我们提出了一个可以重新演绎和推广现有变分方法,并设计新方法的统一原则。我们的框架基于多变量信息瓶颈的解释,其中两个贝叶斯网络相互权衡。我们将第一个网络解释为编码器图,指定了在压缩数据时要保留哪些信息;我们将第二个网络解释为解码器图,为数据指定了生成模型。利用这个框架,我们重新演绎了现有的降维方法,如深度变分信息瓶颈 (DVIB),Beta 变分自动编码器 (beta-VAE) 和深度变分规范相关分析 (DVCCA)。该框架在 DVCCA 算法族中自然引入了一个压缩和重建之间的权衡参数,从而产生了新的 Beta-DVCCA 算法族。此外,我们推导出了一种新的变分降维方法,深度变分对称信息瓶颈 (DVSIB),它可以同时压缩两个变量以保留它们压缩表示之间的信息。我们实现了所有这些算法,并在经过修改的噪声 MNIST 数据集上评估它们产生共享低维潜空间的能力。我们展示了与数据结构更匹配的算法 (Beta-DVCCA 和 DVSIB) 如何通过分类准确性和潜变量的维度来测量产生更好的潜空间。我们相信这个框架可以用来统一其他多视图表示学习算法,此外,它还为推导问题特定的损失函数提供了一个直观的框架。
Oct, 2023
本研究提出一种名为 MVGIB 的多视角变分图信息瓶颈原则用于跨视角融合图信息,并使用相互信息约束公式化其共享信息和视角特定信息。经过广泛的图形基准数据集实验表明了所提出方法的卓越效果。
Oct, 2022
本文提出 “Deep Variational Information Bottleneck” 方法,通过可变分近似来将信息瓶颈模型参数化,使用神经网络和重新参数化技巧进行高效训练。结果显示,使用 VIB 优化训练的模型在泛化性能和对抗攻击鲁棒性方面优于其他正则化方法。
Dec, 2016
本文提出了基于信息瓶颈原理的多视角无监督学习方法,通过对同一实体的两个视角进行对比得出冗余信息,进而定义新的多视角模型,在 Sketchy 数据集和 MIR-Flickr 数据集的标签受限版本上取得了最先进的结果;此外还通过数据扩增技术将理论扩展至单视角情况,实验证明更具有良好的泛化能力。
Feb, 2020
本研究提出了一种创新的分类任务框架,称为 Flexible Variational Information Bottleneck (FVIB),通过单一、高效的训练可以获取在所有 $eta$ 值上的最优模型,并且在校准性能方面优于其他信息瓶颈和校准方法。
Feb, 2024
本研究提出了一种系统无关的解释模式,即采用信息瓶颈原理作为准则来寻找在简洁性和全面性方面都具备的关键特征,并在三个数据集上评估了其可解释性和保真度。
Feb, 2019
提出了一种新的多视角语义一致性信息瓶颈聚类(MSCIB)算法,通过语义空间的多视角映射对多源信息进行对齐,从而获取有价值的一致信息,已取得最先进的性能。
Feb, 2023
使用变分近似方法为信息瓶颈提供新的、更紧的下界,从而提高先前基于信息瓶颈的深度神经网络的性能,并显著增强分类深度神经网络的对抗鲁棒性。
通过简单的案例研究,我们展示了变分信息瓶颈(VIB)不仅可以提高神经网络的分类校准能力,还可以改善其检测未知数据的能力,并提供了两个量化和处理不确定性的自然度量。
Jul, 2018