Oct, 2019

FedMD: 通过模型蒸馏实现异构联邦学习

TL;DR本文利用迁移学习和知识蒸馏等方法,提出了一个通用的框架,使得联邦学习在每个参与者拥有自己的数据和独特的模型的情况下也能够实现。在 MNIST/FEMNIST 和 CIFAR10/CIFAR100 数据集上的试验中,与独立建模相比,该框架使得个体模型的测试准确度平均提高了 20%,并且只有少数几个百分点的下降。