边缘智能:设备-边缘协同,按需深度学习模型协同推理
本文提出了一种高效、灵活的 DNN 分区方法,通过迭代删除不重要的卷积层过滤器进行剪枝,从而减少移动设备的无线传输负担或总计算负担,并能够自动选择满足各种延迟和准确性要求的修剪过的模型。实验表明,与未剪枝的原始 DNN 模型相比,该框架在传输负载上可实现多达 25.6 倍的降低,总计算速度加快了 6.01 倍,端到端延迟降低了 4.81 倍。
Mar, 2019
该论文提出了一种基于边缘计算的DNN协同推理框架Edgent,通过DNN分区和权衡设备的云资源和临近边缘资源来协调实时的DNN推理,进而降低计算延迟,实现低延迟边缘智能处理。
Oct, 2019
本文提出了一种有效的边缘计算推理方法,并探讨了在设备模型的计算成本和中间特征的通信成本之间进行的关键权衡。通过模型拆分点选择、通信感知模型压缩和任务导向的中间特征编码,提出了一个三步框架来有效地进行推理,实验结果表明,与基准方法相比,我们的提出的框架具有更好的权衡,可以显著减少推理延迟。
Jun, 2020
该研究针对移动设备上的深度神经网络的推断,使用自适应模型划分的方法解决了通信延迟的问题,并对准确性进行了预测和校准,从而实现更可靠的推断决策。
Oct, 2020
本研究提出一种名为CoEdge的分布式深度神经网络计算系统,优化了边缘设备的计算和通信资源,在许多共同参与的异构边缘设备上进行协同深度神经网络计算,与现有方法相比,CoEdge在降低能耗方面更具优势。
Dec, 2020
提出了一种基于 Deep Neural Network(DNN)模型的 IoT 设备与边缘协同计算框架,通过多分支结构、智能早停、硬件中间分割与整数量化等技术实现了优秀的通信负载和执行精度平衡,结合基于 Soft Actor Critic(SAC-d)的深度强化学习优化算法实现了动态无线通道和任意 CPU 处理下的适应性支持,并在树莓派 4 和 PC 上进行了实验。
Jan, 2022
本论文探讨了 DNN 在资源受限的边缘设备上部署的优化问题,并研究了四种边缘智能场景下的深度学习方法,通过减少 DNN 冗余度来达到资源消耗与模型准确度之间的平衡。
Oct, 2022
在本研究中,我们提出了一种自适应工作负载分配方法,联合考虑边缘设备的节点异构性以及应用特定的准确性和性能要求,通过组合优化异构感知的工作负载分割和动态准确配置DNN模型,以确保性能和准确度保证。我们在Odroid XU4、Raspberry Pi4和Jetson Nano板的边缘集群上进行了测试,并与最先进的工作负载分配策略相比,平均性能提升了41.52%,输出准确度提升了5.2%。
Oct, 2023
在本研究中,我们提出了一种名为CoDE的新算法,它能够协同处理深度神经网络模型,从而实现低延迟的边缘AI服务。通过利用自身和其他模型的参数,DNN模型可以创建新的推理路径,从而降低本地计算负荷,同时只对精度产生最多2%的影响。在重负载条件下,CoDE可以进一步减少推理时间30%,而精度仅下降4%。
Jan, 2024
本研究解决了在资源受限的边缘设备上实现深度学习的高资源需求及多流空间相关数据的有效利用这两个主要挑战。通过探索边缘节点和终端设备共享相关数据和推理计算负担的协作推理方法,我们提出了选择性方案,显著减少带宽消耗。实验结果表明,选择性协作方案在保持90%以上推理准确度的同时,可以实现18%到74%的通信节省。
Sep, 2024