提出了一种新的相互信息非参数估计值,解决了其他方法基于局部分布均匀性计算相互信息的局限性,对于很少的数据也可以准确地估计两个相关变量之间的相互信息,并且在合成和真实世界数据上表现出卓越的性能。
Nov, 2014
本文提出了基于高斯混合模型的互信息估计算法 GMM-MI, 经验证其在深度学习模型的可解释性研究中表现良好,可用于评估自编码的潜在空间中变量的分离度和与物理量的相关性分布。
Oct, 2022
我们提出了一种新的较低计算复杂度的非参数 MI 估计方法 - Ensemble Dependency Graph Estimator (EDGE),并证明当密度可微分时可以达到理论最优渐近均方误差收敛速度,并显示其用于信息平面和深度学习中的实用性。
Jan, 2018
本文介绍了基于 $k$- 最近邻距离的熵估计的改进互信息估计器类别,并说明了它们与现有算法的比较和实际应用中的有效性。
May, 2003
我们发现在 A. Kraskov 等人的文章中声称两个实值随机变量之间的互信息的下界存在错误,并提出了一种新的方法建立在较弱的假设下得到较紧的下界,并在基因表达数据中展示了这种方法的实用性。
Aug, 2010
本文提出了一种基于非参数估计和广义最近邻图的计算 Renyi 熵和互信息的算法,证明了这种算法的几乎必然一致性和上限的收敛速度,并在实验中展示了其在独立子空间分析中的实用性。
Mar, 2010
本文构建了一个多样的分布族,展示了语言无关基准平台用于互信息估计器的实用性和局限性,并提出了适应问题困难度的适当估计器的选择指南及应用估计器时需要考虑的问题。
Jun, 2023
论文提出并实现了一种新的基于神经网络的相互信息估计方法,该方法能够有效地减少方差并针对基准测试任务展现出更好的偏差 - 方差权衡性能。
Oct, 2019
通过基于 Girsanov 定理的新方法,我们提出了一种估计随机变量之间互信息(MI)的方法。我们的方法基于分数函数的扩散模型来估计两个密度之间的 Kullback Leibler 散度,并衍生出估计随机变量熵的方法。我们的结果表明,我们的方法在挑战性分布情况下比文献中的主要替代方法更准确,并通过自洽性测试,包括数据处理和独立性下的可加性。
Oct, 2023
本文提出了一种基于神经网络的数据效率更高的 Mutual Information 估计方法 DEMINE,通过放松预测 MI 下限来提高数据效率,并采用任务扩充方法 Meta-DEMINE 进一步优化其推广性和估计准确性,可用于实际数据集大小的统计依赖性检测。
May, 2019