- 基于理论边界导向的分层 VAE 神经图像编解码器
基于理论边界指导的分层变分自动编码器 (BG-VAE) 通过引导神经图像编解码器 (NIC) 模型,利用率失真理论上边界来提升性能。通过实验证明,BG-VAE 在考虑率失真性能和计算复杂度时优于现有方法。
- CVPR基于深度生成模型的图像下采样评估的速率失真
通过率失真(IDA-RD)来评估图像下采样算法的图像下采样评估(IDA-RD)是一种新的量化评估图像下采样算法的方法。
- 并行贝叶斯优化:基于满足性汤普森采样的时间敏感黑盒优化
本研究针对时间敏感的黑盒优化问题,提出了满足条件的基于 Thompson 抽样的并行贝叶斯优化(STS-PBO)方法,引入了速率失真理论构建平衡学习所需信息量和次优性的损失函数,并采用 Blahut-Arimoto 算法在每一步计算达到最小 - 目标导向的语义通信与失真率弹性的联合通信和计算框架
基于率失真理论,该研究提出一种创新方法,分析沟通和语义压缩引起的失真,以评估其对人工智能模型性能的影响,并预先估计 AI 任务的经验性准确性,从而使目标导向的语义沟通问题成为可能。
- 无过多实证风险的领域泛化
通过最小化约束条件下的惩罚,而不是与经验风险同时最小化,我们提出了一种解决域泛化领域中过度风险的方法,并通过将我们的方法应用于文献中的三种方法来证明其有效性。
- 使用速率失真理论在联邦学习中优化通信 - 准确性权衡
研究了联邦学习中模型更新的统计学特性及各种压缩技术的作用和优劣,提出了基于失真作为可靠的模型精度代理的降低通信成本的新方法,并在 Stack Overflow 下一个真实具有挑战性的 FL 基准测试中实现了接近最优的通信成本降低,在多个数据 - 决定学习什么时的信息价值
探究决策代理如何在不完全了解环境的情况下,通过理性获取信息构建最优学习目标,同时基于信息导向采样(information-directed sampling)和速率失真理论(rate-distortion theory)提出了一种有效的学习 - 随机编码器的优点
本文提供了一个基于玩具模型的例子,表明随机编码器在完美的感知质量范围内可能会显著优于最佳确定性编码器。
- 模型剪枝的信息论理论解释
本文探讨了神经网络压缩问题,利用率失真理论解释了压缩比和神经网络性能之间的张力,提出了一种压缩和失真之间的折衷方法,并通过该理论分析表明模型剪枝是好的压缩算法的一部分,最后,提出了一种基于信息理论的剪枝策略并在 CIFAR-10 和 Ima - CVPR置换、量化和微调:神经网络的高效压缩
通过对权重的重新排列,利用矢量量化方式压缩多层神经网络以在低性能计算平台上运行。在图像分类、目标检测和分割等任务中,相对于现有技术水平,可以将压缩后网络的性能损失降低 40%至 70%。
- ICML重新思考无损压缩:速率 - 失真 - 感知之间的权衡
通过采用 Blau & Michaeli 2018 年提出的感知质量的数学定义,研究了速率、失真和感知之间的三重权衡,我们证明了该三重权衡的几个基本属性,并在一个玩具 MNIST 例子上进行了可视化说明。
- 基于自编码器的表示学习的最新进展
本文深度阐述了最近在表征学习中以自编码器为核心模型的研究进展,分析了三种主要的机制来实现信息分离和分层组织特征,探讨了表征学习中的隐式和显式监督的重要性,并通过失真率理论分析了自编码器表征学习的优缺点和任务需求的先验知识对表征学习的影响。
- ACLNASH: 面向生成语义哈希的端到端神经结构
本文提出一种新型神经网络模型 NASH,用于信息检索中的语义哈希,利用伯努利潜变量处理二进制约束。采用神经变分推理框架进行训练,直接通过离散潜变量反向传播梯度以优化哈希函数。结合率失真理论,本文进行了理论分析,通过在三个公开数据集上的实验验 - 一般集合和度量的码率失真理论
该论文探讨了一种适用于具有一般分布的随机变量序列的率失真理论,其中包括流形和分形集合,引入了一种下界和一种广泛适用的子规整条件。
- NIPS理解 $β$-VAE 中的解缠
本文以率失真理论为角度,探讨优化 $eta$-VAE 的修正 ELBO 下界时,在训练过程中的潜在编码信息容量逐渐增加的情况下,哪些情况下会出现与数据生成因素相对应的编码表示,我们基于这些洞见提出了一种修改 $eta$-VAE 训练机制 - NIPS信息处理能力有限决策者中的抽象化
利用自由能决策框架与失真率理论建立决策与人工智能中抽象概念的关系与应用,得出由于信息处理能力的限制而引起的抽象现象。
- 结构还是噪声?
以速率失真理论为基础,提出一种自动理论构建的机制,其通过自然地区分规律性和随机性来实现。该方法基于一个简单的原则,即模型变量在尽可能保持未来和过去条件独立的前提下,进行构建。这种构建方式可以使任何一个过程的固有组织结构被准确地提取出来,并以