神经熵估计:一种更快的互信息估计方法
本文提出了互信息神经估计(MINE),利用神经网络通过梯度下降来估计高维连续随机变量之间的互信息,并使用 MINE 来改进对抗训练的生成模型,并应用信息瓶颈来进行监督分类,实现了灵活性和性能的显著提高。
Jan, 2018
本文提出了一种基于神经网络的数据效率更高的 Mutual Information 估计方法 DEMINE,通过放松预测 MI 下限来提高数据效率,并采用任务扩充方法 Meta-DEMINE 进一步优化其推广性和估计准确性,可用于实际数据集大小的统计依赖性检测。
May, 2019
在密码学领域中,我们提出了一种全新的方法来估计明文和密文之间的互信息,通过应用神经网络来评估密码系统的效率,并分析了多种加密方案和基准方法的效果,同时探讨了信息泄漏与输入分布之间的关系。
Sep, 2023
通过基于 Girsanov 定理的新方法,我们提出了一种估计随机变量之间互信息(MI)的方法。我们的方法基于分数函数的扩散模型来估计两个密度之间的 Kullback Leibler 散度,并衍生出估计随机变量熵的方法。我们的结果表明,我们的方法在挑战性分布情况下比文献中的主要替代方法更准确,并通过自洽性测试,包括数据处理和独立性下的可加性。
Oct, 2023
我们提出了一种新的较低计算复杂度的非参数 MI 估计方法 - Ensemble Dependency Graph Estimator (EDGE),并证明当密度可微分时可以达到理论最优渐近均方误差收敛速度,并显示其用于信息平面和深度学习中的实用性。
Jan, 2018
本文概述了深度学习的新趋势,即利用相似性函数和信息估计函数作为学习和目标函数的相互信息神经估计和信息噪声对比估计,介绍了作者提出的语义信息 G 理论及应用在多标签学习、最大互信息分类和混合模型等方面,探讨了从 G 函数或 G 理论的角度理解语义互信息与 Shanon 互信息、混合模型、Gibbs 分布和分区函数等的关系,并提出了利用高斯信道混合模型来预训练深度神经网络潜在层的潜在机会和使用语义互信息作为增强学习的奖励函数。
May, 2023
通过得分估计隐式分布,我们提出了互信息梯度估计器(MIGE),用于基于 InfoMax 和信息瓶颈方法的无监督学习深层表示,并扩展了 MIGE 的应用。在高维和大 MI 设置下,MIGE 表现出紧密和平滑的 MI 梯度估计,并且实验结果表明了学习有效表示的显着性能提高。
May, 2020
本文提出了基于重要性采样的互信息估计方法,包括基于多样本退火重要性采样的全局互信息界限、基于广义 IWAE 的边际互信息界限和基于 MCMC 采样的更紧密的边际互信息界限。在深度生成模型中应用实验,取得了比现有界限更高的性能。
Mar, 2023