NIPSNov, 2018

通信高效的设备端机器学习:非独立同分布私有数据下联合蒸馏与增强

TL;DR提出了一种名为联邦蒸馏(FD)的分布式模型训练算法,其通信负载大小比联邦学习(FL)小得多,尤其是当模型大小较大时,并提出了一种名为联邦增强(FAug)的方法来处理设备间用户生成数据样本分布不同的问题。实证研究表明,采用 FD 和 FAug 可以减少约 26 倍的通信开销,同时实现 95-98% 的测试精度。