提出了一种新的半参数估计互信息的方法,该方法使用高斯分布来局部逼近密度函数,与其他基准方法相比具有更好的性能,并能准确地测量许多数量级上的关系强度。
Aug, 2015
我们提出了一种新的较低计算复杂度的非参数 MI 估计方法 - Ensemble Dependency Graph Estimator (EDGE),并证明当密度可微分时可以达到理论最优渐近均方误差收敛速度,并显示其用于信息平面和深度学习中的实用性。
Jan, 2018
本文提出了一种基于非参数估计和广义最近邻图的计算 Renyi 熵和互信息的算法,证明了这种算法的几乎必然一致性和上限的收敛速度,并在实验中展示了其在独立子空间分析中的实用性。
Mar, 2010
本文介绍了基于 $k$- 最近邻距离的熵估计的改进互信息估计器类别,并说明了它们与现有算法的比较和实际应用中的有效性。
May, 2003
论文提出并实现了一种新的基于神经网络的相互信息估计方法,该方法能够有效地减少方差并针对基准测试任务展现出更好的偏差 - 方差权衡性能。
Oct, 2019
本文提出了两种方法(Probabilistic Classifier 和 Density-Ratio Fitting)来解决 MI 估计中存在的方差大的问题,这两种方法可以自然地获得点对点的依赖信息,为自监督学习和跨模态检索任务提供了有效方法。
Jun, 2020
我们发现在 A. Kraskov 等人的文章中声称两个实值随机变量之间的互信息的下界存在错误,并提出了一种新的方法建立在较弱的假设下得到较紧的下界,并在基因表达数据中展示了这种方法的实用性。
Aug, 2010
本文构建了一个多样的分布族,展示了语言无关基准平台用于互信息估计器的实用性和局限性,并提出了适应问题困难度的适当估计器的选择指南及应用估计器时需要考虑的问题。
Jun, 2023
本文提出了一种基于神经网络的数据效率更高的 Mutual Information 估计方法 DEMINE,通过放松预测 MI 下限来提高数据效率,并采用任务扩充方法 Meta-DEMINE 进一步优化其推广性和估计准确性,可用于实际数据集大小的统计依赖性检测。
May, 2019
本文研究了基于 $KSG$ 估计的互信息估计中,样本数对偏差收敛速度的影响,发现了 $KSG$ 估计器的优越性能来源于 “相关性提升” 效应,并通过改进 $KSG$ 估计器构建出更优秀的估计器。
Apr, 2016