Oct, 2021

通过联邦学习改善公平性

TL;DR本文提出了一个新的理论框架,证明联邦学习可以比本地分类器严格提高模型的公平性,但目前的基于 FedAvg 的公平学习算法在性能上与中心化数据上训练的公平分类器相比牺牲了很多,为此我们提出了一种名为 FedFB 的基于隐私保护的公平学习算法,在分散数据上训练时可以有效地模拟中心化的公平学习,实验结果表明,FedFB 明显优于现有方法,有时甚至能够与中心训练模型的性能匹配。