Aug, 2020

基于蒸馏的半监督联邦学习:具有非 IID 私有数据的通信高效合作训练

TL;DR该研究提出了一种新的联邦学习框架,利用无标签的开放数据集和基于蒸馏的半监督学习算法,实现了模型的交流和性能的提高,并通过熵的减少平均值来减少模型之间的异质性。实验结果表明,相对于 FL 基准,DS-FL 能降低高达 99% 的通信成本,同时达到相似甚至更高的分类准确性。