在边缘服务器上调度深度神经网络
本论文探讨了 DNN 在资源受限的边缘设备上部署的优化问题,并研究了四种边缘智能场景下的深度学习方法,通过减少 DNN 冗余度来达到资源消耗与模型准确度之间的平衡。
Oct, 2022
提出了一种基于学习的 BCEdge 调度框架,其对边缘平台上多个深度神经网络模型进行自适应分批和并发执行,从而实现高吞吐量和低延迟。通过最大熵深度强化学习优化批大小和并发模型数量,不仅提高了系统利用率,还较完美地满足了质量服务要求 (SLO)。
May, 2023
本文系统研究了多层异构边缘网络上的分布式图神经网络处理的成本优化,发现图神经网络的独特计算模式含有二次次模性质,在此基础上设计了基于图切割的迭代解法,并通过实验评估证明了其在成本降低、收敛速度等方面均具有优异性能。
Oct, 2022
该论文提出了一种基于边缘计算的 DNN 协同推理框架 Edgent,通过 DNN 分区和权衡设备的云资源和临近边缘资源来协调实时的 DNN 推理,进而降低计算延迟,实现低延迟边缘智能处理。
Oct, 2019
分布式深度神经网络 (DDNN) 可以在云端、边缘设备和终端中适应深度神经网络的推断,由于其分布式特性,DDNN 增强了 DNN 应用程序的传感器融合、系统容错和数据隐私,通过将 DNN 映射到分布式计算层次结构中的不同组成部分并联合训练这些部分,我们最小化设备通信和资源使用并最大化提取特征的实用性。实验结果表明,DDNN 可以利用传感器的地理多样性来提高物体识别精度并减少通信成本。
Sep, 2017
在本研究中,我们提出了一种名为 CoDE 的新算法,它能够协同处理深度神经网络模型,从而实现低延迟的边缘 AI 服务。通过利用自身和其他模型的参数,DNN 模型可以创建新的推理路径,从而降低本地计算负荷,同时只对精度产生最多 2% 的影响。在重负载条件下,CoDE 可以进一步减少推理时间 30%,而精度仅下降 4%。
Jan, 2024
提出了 Edgent,这是一种协作和按需的 DNN 合作推理框架,其旨在通过在设备和边缘之间自适应地分配 DNN 计算来提高实时 DNN 推理的性能,并通过在适当的中间 DNN 层进行早期退出来加速 DNN 推理。
Jun, 2018
本文提出了一种高效、灵活的 DNN 分区方法,通过迭代删除不重要的卷积层过滤器进行剪枝,从而减少移动设备的无线传输负担或总计算负担,并能够自动选择满足各种延迟和准确性要求的修剪过的模型。实验表明,与未剪枝的原始 DNN 模型相比,该框架在传输负载上可实现多达 25.6 倍的降低,总计算速度加快了 6.01 倍,端到端延迟降低了 4.81 倍。
Mar, 2019
本研究提出了一种基于动态选择拆分位置的动态拆分计算模型,通过利用现代深度神经网络结构中已有的瓶颈,避免了重新训练和超参数优化,并没有对深度神经网络的最终准确性产生任何负面影响。大量实验证明,动态拆分计算模型在边缘计算环境中可以实现更快的推理。
May, 2022
介绍了在移动设备中使用深度神经网络技术的优劣,提出了通过分割计算和提前结束计算的方法,将深度神经网络分别部署在移动设备和云 / 边缘服务器上,最终可减少带宽和能耗,同时提高精度并根据当前需求调节精度与延迟之间的平衡。
Mar, 2021