深度神经网络的熵受限训练
通过引入基于熵的损失项,我们提出了一种新的方法来加强神经网络学习丰富的潜在数据表示,在更少的维度上收敛于更好的测试指标,并在图像压缩和图像分类的实验中展示了其有效性。
Aug, 2023
通过实验证明,即使考虑到参数编码,深度神经网络仍能够压缩训练数据,而这种压缩视角最初激励了神经网络中变分方法的使用。我们发现,这些变分方法提供了惊人的较差压缩界限,这可能解释了变分方法在深度学习中相对较差的实际性能。另一方面,简单的增量编码方法在深度网络上产生了出色的压缩效果,从而证明了 Solomonoff 的方法。
Feb, 2018
本文提出了一种通过使用全变分权重分布进行深度神经网络压缩的方法,能够实现更高的压缩率和更高的测试性能,并在 LeNet-5/MNIST 和 VGG-16/CIFAR-10 基准测试中创造出新的最优结果。
Sep, 2018
从动态或行为数据中重建网络的一个基本问题在于以能够防止过拟合的方式确定最适合的模型复杂度,并生成具有统计合理边数的推断网络。与常见做法 L1 正则化结合交叉验证相比,本文提出了一种基于层级贝叶斯推断和权重量化的非参数正则化方法,该方法能够提高网络重建的准确性,并且不需要事先知道边的数量。特别是在关于大规模物种数量的微生物群落间相互作用网络重建方面,我们展示了该方法的应用,并演示了利用推断模型预测系统干预结果的能力。
May, 2024
本文提出一种在神经网络中进行权重压缩的通用方法,利用潜变量重新调参,在学习过程中施加熵惩罚,并在训练后使用简单的算术编码器对其进行压缩,实现了模型的压缩和分类准确率的最大化。
Jun, 2019
本文介绍了一类采用可计算的信息理论模型的深度学习模型,探讨了该模型从启发式的统计物理方法中导出熵和互信息的方法,在该方法的基础上,设计了一种实验框架用于对生成模型进行训练,并对该模型进行验证,同时研究了本模型在学习过程中的行为,得出结论:在所提出的情况下,压缩和泛化之间的关系仍然不明确。
May, 2018
本文探讨了神经网络压缩问题,利用率失真理论解释了压缩比和神经网络性能之间的张力,提出了一种压缩和失真之间的折衷方法,并通过该理论分析表明模型剪枝是好的压缩算法的一部分,最后,提出了一种基于信息理论的剪枝策略并在 CIFAR-10 和 ImageNet 数据集上显示出其优越性。
Feb, 2021
本文研究了基于神经网络的压缩器在处理集中于低维流形上的高维数据(如图像)方面的有效性,同时研究了一个连续时间随机过程的最优熵 - 失真权衡并对比了经典的 Karhunen-Loève 变换的压缩器,结果表明基于神经网络的压缩器在训练采用随机梯度下降的情况下可实现最佳性能。
Nov, 2020