利用信息论的有关发现,我们提出了一种新的端到端优化策略,该策略同时估计和最小化学习表示和数据属性之间的互信息,通过这种策略,我们的模型在标准基准测试中表现出与最先进的方法相当或优越的分类性能,此方法可应用于问题的 “算法公平性”,并得到了竞争性的结果。
Mar, 2020
提出了一种基于 infomax 原理的框架,可实现对大规模神经群体进行无监督学习。该方法使用基于渐近的方法来对大规模神经群体的信息论下限进行计算,通过渐进性的不断往全局信息论最优解靠近的过程,可以获得一个很好的初始值。基于该初始值,提出了一个高效的算法来从输入数据集中学习特征表示,并且该方法适用于完备、过完备和欠完备情况下的基函数。和现有的方法相比,该算法在无监督表示学习的训练速度和鲁棒性方面都具有明显的优势,而且还可以轻松地扩展到用于训练深层结构网络的监督或无监督模型。
Nov, 2016
本研究介绍了一种基于概率函数的输入变量表示方法,并提出如何量化各层对原始数据信息提取的贡献,并应用于深度表示的无监督学习,具有可实施性和科学性。
Oct, 2014
使用统计和信息理论的已建立原则,我们展示了深度神经网络中对无关因素的不变性等同于学习表示的信息最小性,而叠加层和在训练期间注入噪声自然偏向于学习不变表示。我们进一步分解了训练过程中使用的交叉熵损失,强调了内在的过拟合项。我们提出通过两种等效方式来限制这样的项的正则化损失:一种是使用 Kullbach-Leibler 项,它与 PAC-Bayes 视角相关;另一种是使用权重中的信息作为学习模型复杂度的度量,从而为权重提供了一种新的信息瓶颈。最后,我们展示出在神经网络中学习到的表示组件的不变性和独立性在权重中的信息上限和下限是有界的,因此在训练过程中自动优化。该理论使我们能够量化和预测使用我们的正则化损失时随机标签下欠拟合和过拟合之间的尖锐相变,我们通过实验证实了这一点,并阐明了损失函数的几何形状、学习表示的不变性属性和泛化误差之间的关系。
Jun, 2017
用变分分布构建了一种信息理论框架,生成互信息的下界,是一种优化特征选择的方法,实验表明该方法在信息理论特征选择中表现出色。
Jun, 2016
通过在深度神经网络编码器的输入和输出之间最大化互信息来进行无监督学习表示,该方法将表示的特征与先前分布进行敌对匹配,优于其他无监督学习方法并能够在多个分类任务中与全监督学习相竞争,深度信息最大化(DIM)为特定端点目标的无监督学习表示开启了新的途径。
Aug, 2018
本研究提出使用互信息优化结构化潜变量和目标变量之间的关联,通过对抗目标函数可在二进制编码上估算互信息,应用于文件哈希上表现卓越且高度压缩。
Apr, 2020
MIRO 设计了一个潜在的数据空间,最大化与未来信息的互信息,同时能够捕获规划所需的所有信息,并在干扰和杂乱的场景中比重建目标更具鲁棒性。
May, 2020
本研究探讨了深度学习中中间层所提取的深层特征,并证明了这些特征的性能可能不佳,因为它们是通过最小化经验风险来学习的。针对当前任务与基准数据集的数据分布不同的情况,本研究提出了一种层次稳健优化方法来学习更通用的特征。该方法同时考虑了 example-level 与 concept-level 稳健性,并将问题公式化为带有 Wasserstein 模糊集约束的分布稳健优化问题。本文提出了一种高效的算法,并在标杆数据集上进行了实验,证明了稳健特征的有效性。
Nov, 2019
通过对比学习和分类等几种常用的监督信号的信息论分析,我们确定了它们如何为表示学习性能做出贡献以及在训练数据集的标签数、类数和维数等培训参数影响下学习动力学如何受影响。我们通过一系列模拟实验进行了实证验证,并进行了成本效益分析,以建立一条权衡曲线,使用户能够优化在自己的数据集上监督表示学习的成本。
Nov, 2022