Jul, 2023

基于贝叶斯推断的自适应 dropout 联邦学习:通信高效且准确性保证的 FedBIAD

TL;DR在这篇论文中,我们提出了一种基于贝叶斯推理的自适应辍学方法(FedBIAD),通过逐行将局部模型权重转化为概率分布,并自适应地根据与本地训练损失趋势相关的重要性指标辍掉部分权重行,从而在减少上行通信成本的同时提高准确性,理论分析证明 FedBIAD 的平均泛化误差的收敛速度是最小最大的,甚至在非独立同分布数据上可以提高 2.41% 的准确率,并最多缩短 72% 的训练时间。