在移动设备上,利用深度学习模型进行 AI 应用程序时,采用共享的移动 - 云推理方法可以降低推理的延迟、能源消耗和网络带宽使用,同时提供隐私保护措施。
Jun, 2023
本文提出了一种新的协作智能友好型架构,通过将移动设备上计算的中间特征卸载到云端以降低需要发送到云端的数据量,使得在 ResNet-50 模型上,相比现有的云端计算方法,端到端延迟和移动能耗分别平均提高了 53 倍和 68 倍,而精度损失不到 2%。
Feb, 2019
介绍了在移动设备中使用深度神经网络技术的优劣,提出了通过分割计算和提前结束计算的方法,将深度神经网络分别部署在移动设备和云 / 边缘服务器上,最终可减少带宽和能耗,同时提高精度并根据当前需求调节精度与延迟之间的平衡。
Mar, 2021
本篇论文对设备上的机器学习进行了全面的调查和分类,将 On-device Learning 问题重新表述为资源受限的学习,如何在设备资源有限的情况下进行模型训练是未来需要关注的重点。
Nov, 2019
本文介绍了一种优化的深度神经网络引擎 JointDNN,它在移动设备和云之间实现了合作计算,有效降低了 DNN 查询的延迟和移动能源消耗。
Jan, 2018
本文综述了在边缘计算设备上部署机器学习系统的主要研究工作,重点关注了智能边缘系统成功应用中使用的压缩技术、工具、框架和硬件等方面的运营问题。
Jul, 2019
该研究针对移动设备上的深度神经网络的推断,使用自适应模型划分的方法解决了通信延迟的问题,并对准确性进行了预测和校准,从而实现更可靠的推断决策。
Oct, 2020
移动设备上的用户体验受到有限的电池容量和处理能力的限制,但 6G 技术的进步正在迅速促使移动技术的演进。移动边缘计算(MEC)提供了一种解决方案,将计算密集型任务卸载到边缘云服务器,与本地处理相比减少了电池消耗。即将到来的移动通信的集成感知与通信可能改善轨迹预测和处理延迟。本研究提出了一种贪婪资源分配优化策略,用于多用户网络以最小化聚合能量使用。数值结果显示,每 1000 次迭代,潜在改进可达 33%。解决预测模型划分和速度精确性问题对于获得更好的结果至关重要。为即将到来的工作阶段详述了进一步改进和实现目标的计划。
Jun, 2024
在此研究中,作者介绍了一种新的损失函数,旨在促进 feature 的可压缩性,而不会牺牲多个任务的系统性能,作者称之为压缩友好的丢失函数,实验结果显示,使用这种丢失函数,可以实现约 20%的比特率降低。
本文提出了一种名为 “Device-Cloud Collaborative Learning” 的框架,运用 “MetaPatch 学习” 及 “MoMoDistill” 算法实现了设备端和云端之间的合作学习,取得了较好的效果。
Apr, 2021