Mar, 2022

非独立同分布联邦学习中通过零数据知识蒸馏微调全局模型

TL;DR该研究提出了一种数据无关的知识蒸馏方法,通过生成器探索本地模型的输入空间,并将本地模型的知识传递到全局模型中。实验结果表明,该方法在解决联邦学习中的数据异质性问题及提升模型性能方面,优于现有的联邦学习算法。