MIND: 基于最大互信息的神经解码器
本文提出了一种使用深度神经网络作为编码器和解码器的物理层设计,该设计使用最新的互信息估计器直接从输入输出测量中提取信道信息,并采用 “逆 Jensen” 方法获得更好的性能。
Jun, 2020
提出了一种利用神经估计器来优化编码器从而实现最大化互信息的新方法,该方法仅依赖于信道样本,可以达到与具有完美信道模型知识的最新端到端学习相同的性能。
Mar, 2019
利用互信息作为无监督学习中一种重要的度量方式,设计一种基于编码器 — 判别器结构的音频信号 SincNet 编码器,通过最大化采样自同一句子块的编码表示之间的互信息来学习音频信号中说话者的特征表达,可成功地实现有效的说话者识别和验证任务。
Dec, 2018
在密码学领域中,我们提出了一种全新的方法来估计明文和密文之间的互信息,通过应用神经网络来评估密码系统的效率,并分析了多种加密方案和基准方法的效果,同时探讨了信息泄漏与输入分布之间的关系。
Sep, 2023
引入 Mutual Information Machine (MIM),一种概率自编码器,用于学习观测和潜变量的联合分布。MIM 反映了三个设计原则:低散度、高互信息和低边际熵,这有助于学习聚类潜在表示。与极大似然法和变分自编码器 (VAE) 相比,实验表明,MIM 通过避免后验崩溃,学习具有高互信息和一致的编码和解码分布的表征。
Oct, 2019
本文提出了一种基于神经网络的数据效率更高的 Mutual Information 估计方法 DEMINE,通过放松预测 MI 下限来提高数据效率,并采用任务扩充方法 Meta-DEMINE 进一步优化其推广性和估计准确性,可用于实际数据集大小的统计依赖性检测。
May, 2019
通过基于 Girsanov 定理的新方法,我们提出了一种估计随机变量之间互信息(MI)的方法。我们的方法基于分数函数的扩散模型来估计两个密度之间的 Kullback Leibler 散度,并衍生出估计随机变量熵的方法。我们的结果表明,我们的方法在挑战性分布情况下比文献中的主要替代方法更准确,并通过自洽性测试,包括数据处理和独立性下的可加性。
Oct, 2023
本文研究了多模态信号处理和分析的应用,通过利用信息计量的概念和 InfoMeter 系统,分析了自动驾驶的大规模数据集中的多模态 3D 物体检测系统,并提出了低模态间信息量对于检测准确性有益的新见解。
May, 2024
对于内隐随机模型,在数据生成分布复杂度很高但采样是可能的情况下,我们应当采用贝叶斯实验设计来最大限度地提高数据与参数变量之间的互信息,并利用基于神经网络的互信息估计来处理计算成本较高的难题,并在模拟研究中展示其可行性。
Feb, 2020