本文提供了通用的、数据无关的 Mutual Information 估计方法,其中包括新的下限估计器。通过实验测试我们的方法在高维问题中具有强大的表现,特别是在变量之间存在非线性关系时。
May, 2019
本文提出了一种基于神经网络的数据效率更高的 Mutual Information 估计方法 DEMINE,通过放松预测 MI 下限来提高数据效率,并采用任务扩充方法 Meta-DEMINE 进一步优化其推广性和估计准确性,可用于实际数据集大小的统计依赖性检测。
本文提出了互信息神经估计(MINE),利用神经网络通过梯度下降来估计高维连续随机变量之间的互信息,并使用 MINE 来改进对抗训练的生成模型,并应用信息瓶颈来进行监督分类,实现了灵活性和性能的显著提高。
Jan, 2018
提出了一种新的相互信息非参数估计值,解决了其他方法基于局部分布均匀性计算相互信息的局限性,对于很少的数据也可以准确地估计两个相关变量之间的相互信息,并且在合成和真实世界数据上表现出卓越的性能。
Nov, 2014
本文构建了一个多样的分布族,展示了语言无关基准平台用于互信息估计器的实用性和局限性,并提出了适应问题困难度的适当估计器的选择指南及应用估计器时需要考虑的问题。
Jun, 2023
本文讨论自监督学习中互信息最大化方法的局限性,并提出了在特征提取器架构和互信息估算器参数化中彰显归纳偏置的重要性,并展示了这种方法的成功与深度度量学习之间的联系。
Jul, 2019
在密码学领域中,我们提出了一种全新的方法来估计明文和密文之间的互信息,通过应用神经网络来评估密码系统的效率,并分析了多种加密方案和基准方法的效果,同时探讨了信息泄漏与输入分布之间的关系。
Sep, 2023
提出了一种新的半参数估计互信息的方法,该方法使用高斯分布来局部逼近密度函数,与其他基准方法相比具有更好的性能,并能准确地测量许多数量级上的关系强度。
Aug, 2015
本文提出了两种方法(Probabilistic Classifier 和 Density-Ratio Fitting)来解决 MI 估计中存在的方差大的问题,这两种方法可以自然地获得点对点的依赖信息,为自监督学习和跨模态检索任务提供了有效方法。
Jun, 2020
本文提出了基于高斯混合模型的互信息估计算法 GMM-MI, 经验证其在深度学习模型的可解释性研究中表现良好,可用于评估自编码的潜在空间中变量的分离度和与物理量的相关性分布。
Oct, 2022