边缘设备上实现深度学习
提出了Edgent,这是一种协作和按需的DNN合作推理框架,其旨在通过在设备和边缘之间自适应地分配DNN计算来提高实时DNN推理的性能,并通过在适当的中间DNN层进行早期退出来加速DNN推理。
Jun, 2018
该论文提出了一种基于边缘计算的DNN协同推理框架Edgent,通过DNN分区和权衡设备的云资源和临近边缘资源来协调实时的DNN推理,进而降低计算延迟,实现低延迟边缘智能处理。
Oct, 2019
本文提出了一种有效的边缘计算推理方法,并探讨了在设备模型的计算成本和中间特征的通信成本之间进行的关键权衡。通过模型拆分点选择、通信感知模型压缩和任务导向的中间特征编码,提出了一个三步框架来有效地进行推理,实验结果表明,与基准方法相比,我们的提出的框架具有更好的权衡,可以显著减少推理延迟。
Jun, 2020
本研究提出一种名为CoEdge的分布式深度神经网络计算系统,优化了边缘设备的计算和通信资源,在许多共同参与的异构边缘设备上进行协同深度神经网络计算,与现有方法相比,CoEdge在降低能耗方面更具优势。
Dec, 2020
本文提出了一种差分映射方案,以提高ReRAM的容错性,实现无需大规模优化的负载裁剪技术,从而在代表性DNN任务中容忍几乎高达一个数量级的故障率,而不需要额外的硬件成本。
Jun, 2021
在边缘设备中部署深度神经网络时,我们提出了一种全新的剪枝框架,名为All-in-One,以应对动态功率管理带来的不稳定的推理速度性能,通过重新配置具有各种修剪比例的模型,以适应特定的执行频率和电压,使推理速度保持尽可能稳定。
Dec, 2022
本篇文章详细调研了针对云、边缘和端设备中的深度神经网络划分方法的最近进展和挑战,并提出了一个基于五维分类框架的统一数学模型,以及一组用于比较和评估这些方法的度量标准。
Apr, 2023
本文介绍了一种新的分层推理方法(hierarchical inference),旨在解决资源受限的边缘设备上深度学习推理的精度和开销问题,同时探讨了该方法在机器故障检测和图像分类应用中的可行性和优势。
Apr, 2023
人工智能(AI)技术已成为众多行业的关键驱动力,包括消费电子、医疗保健和制造业,主要得益于过去十年间的复苏。AI的变革力量主要来自于深度神经网络(DNN)的应用,其需要大量的训练数据和大量的计算资源进行处理。然而,由于与云通信相关的潜在延迟问题,深度学习(DL)工作流越来越多地过渡到靠近终端用户设备(EUDs)的无线边缘网络上。这种转变旨在支持对延迟敏感的应用,并催生了边缘AI的新范式,这将在即将到来的6G网络中支持无处不在的AI应用。尽管具有潜力,但边缘AI面临重大挑战,主要是由于无线边缘网络的资源限制和DL的资源密集性之间的矛盾。为确保性能既最佳又可持续,这需要对边缘AI采取注重能源的方法。因此,本文提供了关于绿色边缘AI的现代综述。我们首先分析了边缘AI系统的主要能源消耗组成部分,以确定绿色边缘AI的基本设计原则。在这些原则的指导下,我们进一步探讨了边缘AI系统中三个关键任务的能效设计方法,包括训练数据获取、边缘训练和边缘推理。最后,我们强调了进一步增强边缘AI能效的潜在未来研究方向。
Dec, 2023
本研究解决了在资源受限的边缘设备上实现深度学习的高资源需求及多流空间相关数据的有效利用这两个主要挑战。通过探索边缘节点和终端设备共享相关数据和推理计算负担的协作推理方法,我们提出了选择性方案,显著减少带宽消耗。实验结果表明,选择性协作方案在保持90%以上推理准确度的同时,可以实现18%到74%的通信节省。
Sep, 2024