Apr, 2022
探索无代理数据联邦蒸馏中分布式知识一致性
Exploring the Distributed Knowledge Congruence in Proxy-data-free
Federated Distillation
TL;DR本文提出了一种基于分布式知识一致性的无代理数据 Federated Distillation 算法以减轻客户端模型异质性带来的知识不一致问题,并设计了优化策略以保证本地模型参数能够满足近似相似分布并被视为一致。实验表明该算法在多种异构设置下均明显优于现有方法并大幅提高了收敛速度。