面向任务的边缘网络:无线前传的分散学习
本文介绍了一种名为 CECIL 的云端协同学习算法,利用深度神经网络优化 Fog 无线接入网络(FRAN)中的云端和边缘计算,以及前传接口。通过将云和边缘计算纳入联合优化框架,以及使用中央计算和分布式决策,并使用上下行前传协调来实现端到端的训练和去中心化的实时推断。
Mar, 2021
本文主要研究了分布式学习如何在无线边缘网络中高效地部署,主要介绍了联邦学习、联邦蒸馏、分布式推理和多智能体强化学习等多种分布式学习范例,并提供了详细的文献综述和通信技术优化实例,旨在为实际无线通信网络中分布式学习的部署提供个整体指导原则。
Apr, 2021
分布式深度神经网络 (DDNN) 可以在云端、边缘设备和终端中适应深度神经网络的推断,由于其分布式特性,DDNN 增强了 DNN 应用程序的传感器融合、系统容错和数据隐私,通过将 DNN 映射到分布式计算层次结构中的不同组成部分并联合训练这些部分,我们最小化设备通信和资源使用并最大化提取特征的实用性。实验结果表明,DDNN 可以利用传感器的地理多样性来提高物体识别精度并减少通信成本。
Sep, 2017
在无线设备到设备(D2D)网络中,去中心化联邦学习(DFL)作为智能移动设备普及的产物引起了极大的兴趣。DFL 相对于集中式联邦学习(CFL)降低了由于通信瓶颈而导致的中央服务器故障的风险。然而,DFL 面临着许多挑战,如多样环境中数据分布的严重异质性,以及 D2D 网络中采用用户数据报协议(UDP)导致的传输中断和包错误等。为了解决这些挑战,我们对 DFL 进行了全面的理论收敛性分析,并推导出一个收敛限。在该收敛限中,我们定义了一种称为不可靠链路感知邻域差异的新颖量,并制定了一个可解的优化目标,开发了一种考虑 DFL 中表示差异和不可靠链路的拓扑学习方法,命名为 ToLRDUL。在特征偏斜和标签偏斜的情况下进行了大量实验验证了我们提出方法的有效性,实验结果与我们的理论发现相一致,显示出了提高收敛速度和测试精度。
Dec, 2023
研究节约时间、资源、保隐私的联邦边缘学习架构系统,通过 CPU 和 GPU 场景的联合批大小选取和通信资源分配,来缩短训练时间并提高训练准确性。
May, 2019
本文探讨了边缘机器学习的关键构建块,神经网络架构的不同分裂及其内在的权衡,以及来自广泛数学学科的理论和技术促进因素,最终呈现了几个关于各种高风险应用的案例研究,展示了边缘机器学习在发挥 5G 及其以后的全部潜力方面的有效性。
Dec, 2018
本文提出使用不同边缘设备间通过通信链接共享数据样本的新设备到设备的数据共享方法,在此设置下,优化了无线电资源分配以减少训练时延,并在数据样本在边缘设备之间非独立且非同分布时增加了训练精度。
Jan, 2020
通过使用一种叫作 Fog learning 的新学习范式,从边缘设备到云服务器中智能地分布机器学习模型的训练,来增强联邦学习的三个重要维度:网络、异构性和邻近性,并考虑由各种接近程度异构设备组成的多层混合学习框架,通过设备到设备(D2D)通信进行协作学习,使其从联邦学习中用于参数传输的星型网络拓扑迁移到更分布式的规模。
Jun, 2020
本文介绍了数字孪生无线网络(DTWN),并在其中运行了一种基于区块链的联邦学习框架,以协作式计算提高系统的可靠性和安全性并提高数据隐私,并通过多智能体强化学习找到了最优解。
Nov, 2020
通过开发并建立新的方法,KDT NEUROKIT2E 项目旨在为边缘设备上的人工智能应用提供新的开源框架,其中包括量化、剪枝感知训练和稀疏化等创新技术,以显著扩展此类设备的功能范围,利用本地资源来处理复杂的机器学习任务,为创新的学习方法奠定基础。
Nov, 2023