ElfStore:面向联邦边缘和雾资源的弹性数据存储服务
提出了一种基于边缘计算场景的去中心化区块链联邦学习(FL)结构,利用区块链提高 FL 结构的安全性,并应用区块链创建 FL 的奖励机制以实现训练者的激励策略。
Nov, 2023
FedCache 2.0 是一种新颖的个性化边缘联合学习架构,通过将数据压缩为知识并以知识缓存的形式存储和组织,以及个体设备为中心的缓存抽样策略,解决了 Federated Edge Learning 在设备约束和设备 - 服务器交互方面的挑战,且在通信效率上有至少 28.6 倍的提升。
May, 2024
本文通过在大量物联网和边缘设备网络上系统地进行广泛实验,重点关注异构情况,以探究在设备上实施联合学习的可行性,并呈现了其现实世界的特征,包括学习性能和操作成本,为研究人员和从业者提供有价值的见解,促进联邦学习的实用性,并帮助改进现有的联邦学习系统设计。
May, 2023
本文提出了一种新的框架,叫做联合边缘智能(FEI),以评估物联网网络的能量成本和边缘服务器的本地数据处理能力,从而使边缘服务器适时地请求足够训练令人满意的模型所需的数据。同时,本文引入了映射函数来评估边缘服务器的计算负载,最后采用基于 ADMM 的方法来优化物联网网络的能量成本和边缘服务器的平均计算资源利用率。该文证明,所提出的算法不会泄露任何数据,也不会泄漏物联网网络的拓扑信息。仿真结果表明,FEI 框架可以在有限的牺牲模型收敛性能的情况下,显著提高物联网网络和边缘服务器的资源效率。
Nov, 2020
通过将人工智能(AI)与边缘计算相结合,边缘智能利用终端设备和边缘服务器的计算和通信能力,在数据产生的地方进行处理,从而实现人工智能的大规模和高效部署。其中一项关键技术是隐私保护的机器学习范式 Federated Learning(FL),该范式使数据所有者能够在无需将原始数据传输到第三方服务器的情况下训练模型。然而,FL 网络预计涉及成千上万个异构分布式设备,因此通信效率仍然是一个关键瓶颈。为了减少节点故障和设备退出,提出了一种分层联邦学习(HFL)框架,其中指定的集群领导者通过中间模型聚合支持数据所有者。因此,基于改进的边缘服务器资源利用,本文可以有效弥补缓存容量的限制。为了减轻软点击对用户体验质量(QoE)的影响,作者将用户 QoE 建模为综合系统成本。为解决这个公式化问题,作者提出了一种具有联邦深度强化学习(DRL)和联邦学习(FL)的分散式缓存算法,其中多个代理独立学习并做出决策。
Mar, 2024
本文提出了一种名为 FedLE 的能源高效客户端选择框架,通过对模型分布相似的客户端进行聚类,延长边缘 IoT 网络的寿命,以解决 IoT 设备的数量庞大和因能量限制造成的选举和更新模型的问题。
Feb, 2023
本文提出使用 Edge Computing 和联邦学习的方法,以增加训练深度学习模型所需的数据量和多样性,同时保护隐私,本文成功应用于家庭负荷预测。
Jan, 2022
Ed-Fed 是一个全面通用的联邦学习框架,提出了一种新颖的资源感知客户端选择算法来优化 FL 中的等待时间,相比于传统随机选择方法,本方法大大优化了 FL 中的等待时间。
Jul, 2023
FLEdge 是一个针对边缘计算系统中 FL 工作负载的基准测试,通过系统地研究硬件异构、训练期间的能量效率以及不同差分隐私级别对 FL 系统的训练效果的影响,检验了客户端退货率对最先进的 FL 策略的影响,发现在老 GPU 加速嵌入式设备上训练现代的 FL 工作负载比在现代服务器级别的 GPU 上训练要节省能源高达 3 倍。
Jun, 2023
在物联网领域,部署深度学习模型来处理由物联网设备生成或收集的数据是一个重要的挑战。为了解决这些挑战,我们提出了一种创新的边缘辅助 U 形拆分联邦学习(EUSFL)框架,利用边缘服务器高性能的能力来辅助物联网设备进行模型训练和优化过程。在这个框架中,我们利用联邦学习使数据持有者能够在不共享数据的情况下协作训练模型,从而通过仅传输模型参数来增强数据隐私保护。此外,通过在物联网设备上进行局部训练,我们基于拆分学习将神经网络分成三个部分。通过利用边缘服务器更强的计算能力,我们的框架有效地减少了整体训练时间,使不同能力的物联网设备能够高效地执行训练任务。此外,我们提出了一种新颖的名为 LabelDP 的噪声机制,以确保数据特征和标签能够安全地抵抗重建攻击,消除隐私泄露的风险。我们的理论分析和实验结果表明,EUSFL 可以与各种聚合算法集成,在不同的物联网设备计算能力下保持良好的性能,并显著减少了训练时间和本地计算开销。
Nov, 2023