Feb, 2022

渐进式权重反量化的比特宽度异构联邦学习

TL;DR本文介绍了一种具有不同比特宽度参与设备的Federated Learning(FL)情景,即Bitwidth Heterogeneous Federated Learning(BHFL),并提出了一种名为ProWD的框架,在中心服务器上具有可训练的重量减量器,该减量器逐步将低比特宽度的权重重建为更高比特宽度的权重,最后转换为完全精度的权重,并进一步选择性地聚合模型参数以最大化不同比特宽度之间的兼容性,在基准数据集上验证了ProWD的性能远优于其他FL算法以及朴素方法。