BottleNet:智能移动云计算服务的深度学习架构
BottleNet++ 是一种面向资源受限的移动设备的深度学习模型压缩和传输方法,使用 CNN 实现双向通信的联合源 - 信道编码,能够实现高达 64 倍的带宽降低和 256 倍的位压缩率,并能以小于 2% 的准确性损失实现高效率的模型拆分和端侧推理。
Oct, 2019
本文提出了一种新的协作智能友好型架构,通过将移动设备上计算的中间特征卸载到云端以降低需要发送到云端的数据量,使得在 ResNet-50 模型上,相比现有的云端计算方法,端到端延迟和移动能耗分别平均提高了 53 倍和 68 倍,而精度损失不到 2%。
Feb, 2019
本论文探讨了在移动设备和云端之间进行特征数据通讯的 “协作智能” 范式,研究了损失压缩特征数据对协作物体检测准确性的影响,并提出了一种策略来提高其在损失特征压缩下的准确性。实验结果表明,采用该策略,通信开销可以降低 70%而不会牺牲准确性。
Feb, 2018
在此研究中,作者介绍了一种新的损失函数,旨在促进 feature 的可压缩性,而不会牺牲多个任务的系统性能,作者称之为压缩友好的丢失函数,实验结果显示,使用这种丢失函数,可以实现约 20%的比特率降低。
Feb, 2019
本文提出了一种面向资源的压缩模型框架,旨在提高机器解释性能,解决边缘设备和服务器之间资源分配不对称的问题,实验结果表明,相比现有的编解码标准任务,本方法可以获得 60%的比特率降低,同时不降低准确性,并可以比离线处理快 16 倍。
Feb, 2023
本研究探索如何为嵌入式计算系统设计轻量级 CNN 架构,提出了适用于基于 ZYNQ 硬件平台的 L-Mobilenet 模型。L-Mobilenet 可以很好地适应硬件计算和加速,并且其网络结构受到 Inception-ResnetV1 和 MobilenetV2 等最先进技术的启发,能够有效减少参数和延迟,同时保持推理的准确性。通过在 cifar10 和 cifar100 数据集上进行测量,L-Mobilenet 模型相比 MobileNetV2 速度提升了 3 倍,参数减少了 3.7 倍,同时保持了类似的准确性。相较于 ShufflenetV2,L-Mobilenet 模型速度提升了 2 倍,参数减少了 1.5 倍,同时保持了相同的准确性。实验证明,由于对硬件加速和软硬件协同设计策略的特殊考虑,我们的网络模型能够获得更好的性能。
Mar, 2024
本文介绍了一种优化的深度神经网络引擎 JointDNN,它在移动设备和云之间实现了合作计算,有效降低了 DNN 查询的延迟和移动能源消耗。
Jan, 2018
本篇论文提出一种名为 ENet 的新型深度神经网络架构,其最大特点是快速、参数少,适用于对实时性要求较高的像素级语义分割任务,且在 CamVid、Cityscapes 和 SUN 等数据集上测试表明效果相对优于同类型已有网络。
Jun, 2016
研究合作智能的新范式,提出了一种简单有效的接近无损的深度特征压缩器,在移动和云端之间分配网络以最小化系统的总能耗和 / 或延迟,同时探讨深度特征数据与自然图像数据之间的差异,并建议从压缩的深层特征中重建输入图像的方法,以补充深度模型所执行的推断。
Apr, 2018