MMNov, 2020

联邦知识蒸馏

TL;DR介绍了分布式学习中一种名为 Federated Distillation 的解决方案,实现了模型参数的共享,通过知识蒸馏、共同蒸馏等算法,交换神经网络模型的输出,提高了通信效率,并展示了其在不同任务和环境下的适用性。