Jul, 2023
基于贝叶斯推断的自适应dropout联邦学习:通信高效且准确性保证的FedBIAD
FedBIAD: Communication-Efficient and Accuracy-Guaranteed Federated
Learning with Bayesian Inference-Based Adaptive Dropout
TL;DR在这篇论文中,我们提出了一种基于贝叶斯推理的自适应辍学方法(FedBIAD),通过逐行将局部模型权重转化为概率分布,并自适应地根据与本地训练损失趋势相关的重要性指标辍掉部分权重行,从而在减少上行通信成本的同时提高准确性,理论分析证明FedBIAD的平均泛化误差的收敛速度是最小最大的,甚至在非独立同分布数据上可以提高2.41%的准确率,并最多缩短72%的训练时间。