Jun, 2020
联邦学习中强化模型合并的集合蒸馏
Ensemble Distillation for Robust Model Fusion in Federated Learning
Tao Lin, Lingjing Kong, Sebastian U. Stich, Martin Jaggi
TL;DR本篇论文研究了 FL 领域中不同于普通平均策略的模型聚合方法 ——ensemble distillation,证明其能够在保证数据隐私性和节约算力的同时,更灵活地聚合异构模型,并在各种 CV/NLP 数据集和场景下优于现有的 FL 算法。