有效低资源微调的变分信息瓶颈
本文提出 “Deep Variational Information Bottleneck” 方法,通过可变分近似来将信息瓶颈模型参数化,使用神经网络和重新参数化技巧进行高效训练。结果显示,使用 VIB 优化训练的模型在泛化性能和对抗攻击鲁棒性方面优于其他正则化方法。
Dec, 2016
通过简单的案例研究,我们展示了变分信息瓶颈(VIB)不仅可以提高神经网络的分类校准能力,还可以改善其检测未知数据的能力,并提供了两个量化和处理不确定性的自然度量。
Jul, 2018
本研究提出了一种创新的分类任务框架,称为 Flexible Variational Information Bottleneck (FVIB),通过单一、高效的训练可以获取在所有 $eta$ 值上的最优模型,并且在校准性能方面优于其他信息瓶颈和校准方法。
Feb, 2024
本论文介绍了一种能够学习在同一模型的不同层次进行不同抽象级别压缩的语言表示模型,并通过在编码器的堆叠 Transformer 自注意力层中应用非参数变分信息瓶颈 (NVIB) 来促进表示的信息理论压缩。论文发现模型内的不同层次对应于不断增加的抽象级别,并且它们的表示更具有语言学信息。最后,实验证明 NVIB 压缩能够产生更具鲁棒性的模型,面对对抗性扰动更加稳健。
Oct, 2023
本研究提出了一种使用信息瓶颈机制的卷积神经网络 —— 细胞变分信息瓶颈网络(cellVIB),它可以与最新的前馈网络结构相结合,在端到端训练方法中使用。我们的细胞变分信息瓶颈网络通过堆叠 VIB 细胞来构建,可以生成具有不确定性的特征映射。以 MNIST 数据集为例,对每个 VIB 细胞进行广泛分析以验证其有效性,并对 VIB 细胞如何影响互信息进行深入分析。在 CIFAR-10 上进行的实验也证明了我们的 cellVIB 对训练过程中的噪声标签和测试中的损坏图像具有鲁棒性。然后,我们在 PACS 数据集上验证了我们的方法,结果表明 VIB 细胞可以显著提高基本模型的泛化性能。最后,在更复杂的表示学习任务 —— 人脸识别中,我们的网络结构也取得了非常有竞争力的结果。
Mar, 2024
本文提出了一个名为 CVIB 的新型对比变分信息瓶颈框架,用于减少深度模型在输入特征和输出标签之间的虚假关联问题,并通过在原始网络和自剪枝网络之间使用对比学习来同时优化这两个网络。实验表明,该方法在整体预测性能、鲁棒性和泛化性等方面均优于强竞争对手。
Mar, 2023
当前大规模预训练和微调 Transformer 大型语言模型的范式在自然语言处理方面取得了显著的进展,然而这种大型模型容易在训练数据上过拟合,在领域变化时性能表现差,而将非参数变分信息瓶颈(NVIB)框架扩展到 Transformers 的所有类型的注意力函数可以解决过拟合问题,改变初始化可以引入一种新的基于信息论的后训练正则化的注意机制,提高领域外泛化能力,这证实了预训练的 Transformer 模型隐式地是 NV 贝叶斯模型。
Dec, 2023
通过信息论,我们提出了一个可以重新演绎和推广现有变分方法,并设计新方法的统一原则。我们的框架基于多变量信息瓶颈的解释,其中两个贝叶斯网络相互权衡。我们将第一个网络解释为编码器图,指定了在压缩数据时要保留哪些信息;我们将第二个网络解释为解码器图,为数据指定了生成模型。利用这个框架,我们重新演绎了现有的降维方法,如深度变分信息瓶颈 (DVIB),Beta 变分自动编码器 (beta-VAE) 和深度变分规范相关分析 (DVCCA)。该框架在 DVCCA 算法族中自然引入了一个压缩和重建之间的权衡参数,从而产生了新的 Beta-DVCCA 算法族。此外,我们推导出了一种新的变分降维方法,深度变分对称信息瓶颈 (DVSIB),它可以同时压缩两个变量以保留它们压缩表示之间的信息。我们实现了所有这些算法,并在经过修改的噪声 MNIST 数据集上评估它们产生共享低维潜空间的能力。我们展示了与数据结构更匹配的算法 (Beta-DVCCA 和 DVSIB) 如何通过分类准确性和潜变量的维度来测量产生更好的潜空间。我们相信这个框架可以用来统一其他多视图表示学习算法,此外,它还为推导问题特定的损失函数提供了一个直观的框架。
Oct, 2023