用于气体使用估计的分层联邦学习激励
本文探讨了分层联邦学习的激励机制设计问题,提出了两层次的激励机制,并使用联盟形成博弈和斯坦克尔伯格博弈算法优化了分层联邦学习的效能。数值结果表明,本文提出的算法比现有的基准方案具有更好的表现。
Apr, 2023
本文提出了一种名为分层联邦学习(H-FL)的新框架,通过运行时分布重构策略,利用中介将客户端重新分配并重新安排客户端的本地训练,设计了一种压缩校正机制,同时不牺牲模型性能,降低通信开销,引入局部训练的差分隐私,注入适量的噪声到完整模型的一部分中,从而提供隐私保障,在真实的图像识别任务的不同数据集上实验结果表明,我们的 H-FL 框架实现了最先进的性能。
Jun, 2021
在车辆自组织网络中,引入了一种基于多跳聚类的分层联邦学习框架来解决有限的通信资源、高车辆移动性和数据分布统计多样性等问题,并通过使用平均相对速度和 FL 模型参数的余弦相似度的加权组合作为聚类度量来确保收敛性,在处理非独立同分布数据的情况下,最小化簇头变更的同时处理复杂性。此框架还包括一种管理聚类头的平滑过渡机制以及向指定簇头传递最新的 FL 模型参数的新机制,同时考虑合并簇头的选项以减少数量和相关开销,并通过广泛的仿真实验,证明了相对于之前提出的聚类算法和非聚类车辆自组织网络,该分层联邦学习系统在提高准确性和收敛时间方面显著改进,并且维持了可接受的分组开销水平。
Jan, 2024
本文介绍了一个集成了聚类式联邦学习和模型压缩优势的新型层次式联邦学习框架,包括自适应聚类算法和局部聚合压缩算法。仿真结果证实,我们提出的算法不仅保持了可比较的预测准确性,还显著降低了相对于现有联邦学习机制的能源消耗。
May, 2024
本文在无线网络中为分层式联邦学习引入了模型剪枝技术,通过联合优化剪枝比例和无线资源分配,旨在最大化模型收敛速度以达到给定延迟阈值,并通过解耦优化问题和使用 KKT 条件得出了剪枝比例和无线资源分配的闭式解,并通过模拟结果展示了模型剪枝在 HFL 中实现了减少了约 50%的通信成本而实现了相似的学习准确率。
May, 2023
该研究提出了一种基于 XGBoost 模型的新颖联邦学习(FL)框架,通过安全的协作建模实现多方可访问但隐藏数据的收集,通过贝叶斯优化实现模型的超参数调优,并通过比较分析证明 FL-XGBoost 方法在地能量领域的二元分类问题中取得了合适的平衡,FL 模型展现了优越的准确性和泛化能力,对于数据有限或相关性较低的参与者而言,相比于单独模型,提供了显著的隐私优势,FL 协议内的聚合优化方法在超参数调优方面表现有效。这项研究开辟了通过协作和隐私保护的 FL 技术评估非传统储层的新途径。
Apr, 2024
本文针对分层联邦学习问题,引入神经网络量化,提出了一种更加严格的收敛界限,优化客户端和边缘云多级聚合策略,同时借助仿真结果验证了策略的有效性。
Mar, 2021
通过将人工智能(AI)与边缘计算相结合,边缘智能利用终端设备和边缘服务器的计算和通信能力,在数据产生的地方进行处理,从而实现人工智能的大规模和高效部署。其中一项关键技术是隐私保护的机器学习范式 Federated Learning(FL),该范式使数据所有者能够在无需将原始数据传输到第三方服务器的情况下训练模型。然而,FL 网络预计涉及成千上万个异构分布式设备,因此通信效率仍然是一个关键瓶颈。为了减少节点故障和设备退出,提出了一种分层联邦学习(HFL)框架,其中指定的集群领导者通过中间模型聚合支持数据所有者。因此,基于改进的边缘服务器资源利用,本文可以有效弥补缓存容量的限制。为了减轻软点击对用户体验质量(QoE)的影响,作者将用户 QoE 建模为综合系统成本。为解决这个公式化问题,作者提出了一种具有联邦深度强化学习(DRL)和联邦学习(FL)的分散式缓存算法,其中多个代理独立学习并做出决策。
Mar, 2024