云、边缘和终端设备上的深度神经网络分区调研
分布式深度神经网络 (DDNN) 可以在云端、边缘设备和终端中适应深度神经网络的推断,由于其分布式特性,DDNN 增强了 DNN 应用程序的传感器融合、系统容错和数据隐私,通过将 DNN 映射到分布式计算层次结构中的不同组成部分并联合训练这些部分,我们最小化设备通信和资源使用并最大化提取特征的实用性。实验结果表明,DDNN 可以利用传感器的地理多样性来提高物体识别精度并减少通信成本。
Sep, 2017
在深度学习、卷积神经网络和大型语言模型的时代,机器学习模型变得越来越复杂,需要大量的计算资源进行推理和训练。为了解决这个挑战,分布式学习已经成为一种关键方法,通过在各种设备和环境中进行并行化来实现。本调查研究对分布式学习的领域进行了探索,涵盖了云端和边缘设置。我们深入研究了数据和模型并行性的核心概念,研究了如何在不同维度和层次上对模型进行分割以优化资源利用和性能。我们分析了针对不同层类型的各种分割方案,包括全连接层、卷积层和循环层,突出了计算效率、通信开销和内存限制之间的权衡。这项调查研究通过比较和对比不同背景下的分布式学习方法,为未来的研究和发展提供了宝贵的见解。
May, 2024
该研究针对移动设备上的深度神经网络的推断,使用自适应模型划分的方法解决了通信延迟的问题,并对准确性进行了预测和校准,从而实现更可靠的推断决策。
Oct, 2020
本论文探讨了 DNN 在资源受限的边缘设备上部署的优化问题,并研究了四种边缘智能场景下的深度学习方法,通过减少 DNN 冗余度来达到资源消耗与模型准确度之间的平衡。
Oct, 2022
本文介绍了在物联网环境中,将深度神经网络的推断任务在边缘和主机平台之间进行分区,并提出了通过特征空间编码来提高边缘平台的最大输入速率和 / 或降低边缘平台的能量消耗的方法。模拟结果表明,在卷积层的末端对 DNN 进行划分并配合特征空间编码能够显着提高能效和吞吐量。
Feb, 2018
本研究提出一种名为 CoEdge 的分布式深度神经网络计算系统,优化了边缘设备的计算和通信资源,在许多共同参与的异构边缘设备上进行协同深度神经网络计算,与现有方法相比,CoEdge 在降低能耗方面更具优势。
Dec, 2020
本文研究了图分区对分布式图神经网络训练的有效性,发现图分区是一个关键的预处理步骤,能够大大减少训练时间和内存占用,同时也证明了分区所需的时间可以通过减少图神经网络训练时间加以弥补。
Aug, 2023
本研究提出了一种基于动态选择拆分位置的动态拆分计算模型,通过利用现代深度神经网络结构中已有的瓶颈,避免了重新训练和超参数优化,并没有对深度神经网络的最终准确性产生任何负面影响。大量实验证明,动态拆分计算模型在边缘计算环境中可以实现更快的推理。
May, 2022
介绍了在移动设备中使用深度神经网络技术的优劣,提出了通过分割计算和提前结束计算的方法,将深度神经网络分别部署在移动设备和云 / 边缘服务器上,最终可减少带宽和能耗,同时提高精度并根据当前需求调节精度与延迟之间的平衡。
Mar, 2021
提出了 Edgent,这是一种协作和按需的 DNN 合作推理框架,其旨在通过在设备和边缘之间自适应地分配 DNN 计算来提高实时 DNN 推理的性能,并通过在适当的中间 DNN 层进行早期退出来加速 DNN 推理。
Jun, 2018