AdapterFL: 自适应异构联邦学习用于资源受限的移动计算系统
适应性模型修剪策略的自适应联邦学习方法针对人工智能物联网设备中的异构性因素进行合作学习,通过强化学习的设备选择机制,将异构模型动态地分发给相应的设备进行本地训练,从而实现推断性能的提升。
Nov, 2023
在本文中,我们提出了一种名为 RE-FL 的新方法,该方法解决了资源受限设备中计算和通信挑战的问题。我们的可变修剪技术通过根据每个客户端的计算能力进行修剪来优化资源利用。我们还使用知识蒸馏来减少带宽消耗和通信轮次。对图像分类任务的实验结果证明了我们的方法在资源受限环境中保持数据隐私和性能的有效性,同时适应了异构模型架构。
Aug, 2023
该研究基于一项新的分类机制,综合分析和总结了现有各种异步 FL 范式,包括异构设备上的设备异构性、数据异构性、隐私和安全性,以及异构设备上的应用。该研究揭示了该领域面临的挑战并提出了潜在的研究方向。
Sep, 2021
本文提出名为 HeteroFL 的新型联邦学习框架,旨在解决具有非常不同计算和通信能力的异构客户端的问题,并通过几种策略增强 FL 训练。通过在三个数据集上进行五个计算复杂性级别的三种模型架构的广泛实证评估,通过自适应分配子网络来提高 FL 训练的计算和通信效率。
Oct, 2020
该研究提出了一种名为 InclusiveFL 的客户端包含的联邦学习方法,解决异构设备下的全局模型训练问题,并通过在不同大小的本地模型之间共享知识和动量知识蒸馏方法来实现客户端之间的模型学习和知识迁移,实验表明该方法在联邦学习框架下从客户异构设备中学习准确模型方面具有很好的效果。
Feb, 2022
本文针对数据异构性与无线资源分配相结合的无线联邦学习问题,提出了性能分析与优化的方法,在考虑数据异构性的同时,优化客户端调度、资源分配和本地训练轮数,通过实验验证了该算法在学习准确性和能量消耗方面的优势。
Aug, 2023
机器学习的未来在于边缘计算,用于数据收集和训练,联邦学习是实现这一目标的一种方法。本文提出了一种新的聚合框架,用于解决联邦优化中的计算异构性问题,包括异构数据和本地更新,并从理论和实验的角度进行了广泛的分析。
Jul, 2023
我们提出了一种高效的分布式联合学习算法(ESFL),通过在服务器和终端设备之间将模型分割为不同的子模型,综合考虑用户异构性,同时优化用户端工作量和服务器端计算资源分配,以充分利用中央服务器的强大计算能力。与标准的联合学习、分割学习和分割联合学习相比,通过大量模拟实验证明我们的 ESFL 方法显著提高了效率。
Feb, 2024
在非同步聯邦學習 (AFL) 的部署中,我們提出一種動態全球模型聚合方法,以應對異質設備和在客戶端之間非相同分佈的數據所帶來的性能挑戰。我們的聚合方法基於客戶端的上傳頻率對其模型更新的權重進行評分和調整,以適應設備能力的差異。此外,我們在客戶端上傳本地模型後立即提供更新的全球模型,以減少閒置時間並提高訓練效率。我們在由 10 個模擬客戶端組成的 AFL 部署中評估了我們的方法,這些客戶端具有異質的計算限制和非相同分佈的數據。使用 FashionMNIST 數據集的模擬結果顯示,與最先進的方法 PAPAYA 和 FedAsync 相比,全球模型的準確性分別提高了 10% 和 19%。我們的動態聚合方法即使在限制的客戶資源和統計數據異質性下也可以實現可靠的全球模型訓練,從而提高了現實世界的 FL 部署的韌性和可擴展性。
Jan, 2024