本文提出了一种新的,适用于离散-连续混合情况的相互信息估计器,并通过数值实验证明了该估计器的优越性。
Sep, 2017
本文提出了一种基于神经网络的数据效率更高的Mutual Information估计方法DEMINE,通过放松预测MI下限来提高数据效率,并采用任务扩充方法Meta-DEMINE进一步优化其推广性和估计准确性,可用于实际数据集大小的统计依赖性检测。
May, 2019
本文提供了通用的、数据无关的 Mutual Information 估计方法,其中包括新的下限估计器。通过实验测试我们的方法在高维问题中具有强大的表现,特别是在变量之间存在非线性关系时。
提出了一种更快的方法,称为互信息神经熵估计(MI-NEE),其将互信息估计变为估计熵的过程,通过使用自定义参考分布和选择均匀分布作为参考分布来实现更快的收敛。
引入 Mutual Information Machine (MIM),一种概率自编码器,用于学习观测和潜变量的联合分布。MIM 反映了三个设计原则:低散度、高互信息和低边际熵,这有助于学习聚类潜在表示。与极大似然法和变分自编码器 (VAE) 相比,实验表明,MIM 通过避免后验崩溃,学习具有高互信息和一致的编码和解码分布的表征。
Oct, 2019
论文提出并实现了一种新的基于神经网络的相互信息估计方法,该方法能够有效地减少方差并针对基准测试任务展现出更好的偏差-方差权衡性能。
本研究对目前文献提出的神经互信息估计器如 MINE、SMILE、DINE 进行了对比评估,以探讨它们在容量估计方面的表现和应用效果。
Nov, 2021
本文提出了基于高斯混合模型的互信息估计算法GMM-MI, 经验证其在深度学习模型的可解释性研究中表现良好,可用于评估自编码的潜在空间中变量的分离度和与物理量的相关性分布。
Oct, 2022
本文构建了一个多样的分布族,展示了语言无关基准平台用于互信息估计器的实用性和局限性,并提出了适应问题困难度的适当估计器的选择指南及应用估计器时需要考虑的问题。
Jun, 2023
本研究解决了互信息估计中存在的困难问题,提出了一种新的估计方法。关键发现是,通过初步估计数据分布,可以显著提升互信息的估计准确性。实验结果表明,该方法在多项任务中具有明显优势,包括非高斯合成问题和现实应用。
Aug, 2024