Feb, 2024
使用知识蒸馏在无服务器联邦学习中训练异构客户端模型
Training Heterogeneous Client Models using Knowledge Distillation in Serverless Federated Learning
Mohak Chadha, Pulkit Khera, Jianfeng Gu, Osama Abboud, Michael Gerndt
TL;DR利用优化的无服务器工作流程,在 FaaS 环境下实现基于知识蒸馏的异构客户端模型的联邦学习(FL)系统,实验证明无服务器 FedDF 比无服务器 FedMD 更快、成本更低且对极端非独立同分布数据分布更加鲁棒。