联邦学习对通信错误的鲁棒性:上行信道和下行信道的比较研究
本文重点研究了有关物理层量化和传输方法在无线联邦学习中的设计和分析,并通过实验评估了 FL 定制上行和下行通信设计的巨大优势,其中包括 1 位量化(浮点基线带宽的 3.1%)在 MNIST 上实现了 99.8%的浮点基线准确度,代表着作者所知的最佳带宽 - 准确度平衡。
Dec, 2020
本文考虑了在存在通信误差的联邦学习问题,将设备与中央节点 (CN) 之间的链接建模为一个数据包抹除信道,证明了在通信障碍存在的情况下,当 CN 从某个设备没有接收到最新数据时,利用过去的本地更新的 FL 算法与没有任何通信障碍的 FL 算法会收敛到相同的全局参数。此外,我们还提供了一些模拟结果来验证理论分析,同时表明在数据集均匀分布于设备的情况下,只使用最新更新并丢弃缺失更新的 FL 算法可能比使用过去本地更新的 FL 算法更快地收敛。
Jan, 2022
本研究旨在回答联邦学习在上下行通信均存在错误的情况下,可以处理多少通信噪声,以及对学习性能的影响。通过将上行和下行噪声通道明确地纳入联邦学习管道中,提出了几种新的联邦学习收敛性分析。结果表明,为了保持与无通信错误的理想情况相同的收敛行为,需要控制直接模型传输的上行和下行信噪比,使其随通信轮数的指数 t 的平方数量级增长,但可以在模型差分传输中保持不变。这些理论结果的关键洞察力是 “低调飞行” 原则 - 随机梯度下降是一种内在的嘈杂过程,只要上行 / 下行通信噪声不占支配地位,就可以容忍它们。
Jan, 2021
通过使用量化的综合方法,联合上下行适应性量化以减少通信开销,我们优化了学习收敛性,并通过确定最优的上行和下行量化位数进行了通信能量约束。实验结果表明,所提出的联合上行和下行适应性量化策略与现有方案相比,能够节省高达 66.7% 的能量。
Jun, 2024
研究了在现实无线网络上训练联邦学习算法的问题,提出了一种联合学习、无线资源分配和用户选择的优化问题,并获得了期望收敛速率的闭式表达式,从而实现最小化 FL 损失函数的最优用户选择和上行资源块分配。
Sep, 2019
联邦学习提供了一种隐私保护的协作方法,用于无线网络中的模型训练,其中通道估计是一种具有潜力的应用。本文分析了联邦学习在通道估计中的安全漏洞,并提出了相应的解决方案,通过模拟进行了验证。
Apr, 2024
本文提出了基于信噪比控制策略的联邦学习收敛率提高方法,并探讨了传输中的非完美通信对联邦学习收敛率的影响,结果发现下行通信噪声对于收敛有更严重的影响。
Jul, 2023
本文旨在通过在上传之前对本地模型参数进行量化,最小化联邦学习的总收敛时间,以保证在所有全局轮次中的最小收敛时间。我们利用随机量化对 FL 算法的收敛性进行了收敛分析,同时综合优化了计算,通讯资源和量化比特数,以保证在所有全局轮次中的最小收敛时间,同时满足能源和量化误差的要求。我们对量化误差对收敛时间的影响进行了评估,并揭示了模型准确性与及时执行之间的平衡。此外,所提出的方法被证明与基线方案相比,可以加速收敛速度,并为量化误差容忍度的选择提供有用的见解。
Mar, 2022
本文提出了基于特征的联邦迁移学习作为一种新方法,通过将上行负载减少数个数量级,改善通信效率,与现有的联邦学习和联邦迁移学习方法相比具有更好的效果。具体而言,在提出的基于特征的联邦学习中,我们设计了要上传的提取特征和输出,而不是参数更新。对于这个分布式学习模型,我们确定了所需的负载,并与现有方案进行了比较。随后,我们分析了基于特征的联邦迁移学习在数据包丢失、数据不足和量化方面的鲁棒性。最后,我们通过定义和分析标签隐私泄露和特征隐私泄露,并研究缓解方法来解决隐私问题。对于所有上述分析,我们通过在图像分类任务和自然语言处理任务上进行实验,评估了提出的学习方案的性能。
May, 2024