Aug, 2020
基于蒸馏的半监督联邦学习:具有非IID私有数据的通信高效合作训练
Distillation-Based Semi-Supervised Federated Learning for
Communication-Efficient Collaborative Training with Non-IID Private Data
TL;DR该研究提出了一种新的联邦学习框架,利用无标签的开放数据集和基于蒸馏的半监督学习算法,实现了模型的交流和性能的提高,并通过熵的减少平均值来减少模型之间的异质性。实验结果表明,相对于FL基准,DS-FL能降低高达99%的通信成本,同时达到相似甚至更高的分类准确性。