动态带宽下的任务感知分布式源编码
通过训练多目标的无限编码器以优化多个压缩比率,并根据可用带宽传输以提高推理性能,提出了一种自适应方法来解决物联网设备资源约束和时间约束下机器学习应用推理性能的问题。
Oct, 2023
本研究旨在通过利用知识蒸馏和神经图像压缩的思想,采用先进的监督压缩方法,使用带有随机瓶颈的教师模型和学生模型,以及可学习的熵编码先验方法来更高效地压缩深度学习的中间特征表示。我们在三个视觉任务上将我们的方法与各种神经图像和特征压缩基线进行比较,并发现我们的方法在保持端到端时延更小的情况下,实现了更好的受监督的率失真性能。我们还展示了学习到的特征表示可以调整为服务于多个下游任务。
Aug, 2021
本文提出一种基于深度学习的机器消耗数据压缩和量化框架,以最大化在融合中心推导出的全局决策的准确性为目标,并提出以感测目标为设计基础的数据压缩机制和熵量化器方法,相较于其他基准模型在性能上有较大提升。
Mar, 2022
论文提出了一种基于深度学习的分布式视频编码架构,通过在解码器中使用有效的辅助信息生成模块,成功利用帧间相关性以提高压缩效率,同时,在编码速度相同的情况下,研究结果优于传统的分布式编码和基于 H.264 标准的压缩方法。
Mar, 2023
该篇论文介绍一种基于深度学习的分类驱动压缩框架,用于边缘计算和云计算的协同训练,可以在降低带宽消耗的同时,保持分类准确性,经过大量实验验证,和原始数据相比,该框架可以减少 14.9 倍的带宽消耗,且准确率不低于 1.06%.
May, 2020
提出了一种新颖的深度神经网络结构,用于在仅在解码器处存在相关图像侧信息时压缩图像,特别地,我们考虑一对立体图像并假设其中一幅图像要被压缩和传输,而另一幅图像仅在解码器处可用,我们的方法利用解码器只有的侧信息进行压缩并得到了比之前工作更好的结果。
Jun, 2021
本文提出深度梯度压缩 (DGC),通过动量修正、局部梯度截断、动量因子掩模和预热训练,使得分布式 SGD 中 99.9% 的梯度交换变得不重要,从而大大减少通信带宽需求,有效保持模型准确率,支持在 1Gbps 以太网和移动设备上进行大规模分布式训练。
Dec, 2017
本文介绍一种基于自动编码器和潜变量表示的神经压缩方法,并探讨了在训练后适应单个视频、发送模型更新以及重新调整参数等方面的改进措施。结果表明,相较于仅调整编码器的方式,对整个模型进行调整可以提高图像在视频中的压缩性能约 1 dB。
Jan, 2021