无线网络的强韧联邦学习:基于信道估计的演示
本文探讨了物理层设计问题中基于联邦学习的最新进展,相比于集中化学习,联邦学习在通信开销方面更有效,但在学习准确性方面略有损失,同时探讨了模型、数据和硬件复杂性方面的设计挑战和可能的解决方案。
Feb, 2021
本文提出了一种基于联邦学习和卷积神经网络的信道估计框架,通过联邦学习的方式训练本地数据集上的模型,减少了数据收集的通信开销,并成功运用到了传统和智能反射表面辅助的 massive MIMO 系统中,同时提高了估计准确性并大大降低了通信开销。
Aug, 2020
研究了在现实无线网络上训练联邦学习算法的问题,提出了一种联合学习、无线资源分配和用户选择的优化问题,并获得了期望收敛速率的闭式表达式,从而实现最小化 FL 损失函数的最优用户选择和上行资源块分配。
Sep, 2019
通过提出一种半联合学习(SemiFL)范式,将基站(BS)和设备的计算能力结合起来,实现集中式学习(CL)和联邦学习(FL)的混合实施。通过设计一种新颖的收发器结构,将空中计算和非正交多址接入应用于聚合和传输,提高了通信效率,并证明了 FL 和 CL 是 SemiFL 的特例。然后,通过联合优化发送功率和接收波束形成器来减小最优性差距,并提供了解析解。两个真实数据集上的广泛模拟实验结果证实了我们的理论分析,并显示相比于最先进的基准,所提出的 SemiFL 在 MNIST 数据集上取得了 3.2% 的准确度提高。
Oct, 2023
本文提出了一种基于贝叶斯的联合学习算法(BFL)和一种高效的改进算法(Scalable-BFL),通过优化均方误差,聚合异构的离散梯度信息,在 MNIST 数据集上的模拟实验中,这两种算法在异构网络上训练和测试神经网络时都比传统的随机梯度下降算法表现得更好。
Dec, 2020
通过将学习模型分为全局部分和个性化部分,以实现模型剪枝和个性化,本文提出了一种解决异构设备数据、计算和通信延迟以及非独立同分布数据的联邦学习框架,并通过数学分析研究了其收敛性、计算和通信延迟,并最终通过优化问题得到了剪枝比例和无线资源分配的闭式解。实验结果表明,相比只进行模型个性化的方案,该框架能够显著减少约 50%的计算和通信延迟。
Sep, 2023
通过网络设计和资源编排的两个方面讨论了实现可扩展无线联邦学习的挑战和解决方案,并提出了三种面向任务的学习算法来提高算法的可扩展性,实现对无线联邦学习的计算高效资源分配。
Oct, 2023
本文提出了一种训练过程,利用频道统计信息作为偏差来减小联邦机器学习模型的收敛时间,并通过数值实验证明可以通过忽略不能维持最小预定传输速率的客户端的模型更新来减少训练时间,同时研究参与训练的客户端数量与模型精度之间的权衡关系。
Apr, 2021