本文综述了基于知识蒸馏的联邦学习的现状、方法和挑战,并探讨了隐私保护、数据异构性、通信效率和个性化等相关问题。
Jun, 2024
本文提出了一种新的联邦蒸馏机制(Selective-FD),其中包括客户端和服务器端选择器来准确地识别本地和集合预测的知识以增强联邦学习框架的泛化能力,并在实验中得到验证。
Apr, 2023
介绍了分布式学习中一种名为 Federated Distillation 的解决方案,实现了模型参数的共享,通过知识蒸馏、共同蒸馏等算法,交换神经网络模型的输出,提高了通信效率,并展示了其在不同任务和环境下的适用性。
Nov, 2020
利用优化的无服务器工作流程,在 FaaS 环境下实现基于知识蒸馏的异构客户端模型的联邦学习(FL)系统,实验证明无服务器 FedDF 比无服务器 FedMD 更快、成本更低且对极端非独立同分布数据分布更加鲁棒。
Feb, 2024
在联邦学习中,提出了一种新颖的联邦遗忘方法,通过从模型中减去历史累积更新来消除客户端的贡献,并利用知识蒸馏方法恢复模型的性能,而不使用来自客户端的任何数据。该方法不依赖于客户端的参与,不对神经网络的类型有任何限制,并引入后门攻击来评估遗忘效果。实验结果表明了本文方法的有效性和效率。
Jan, 2022
通过改进知识蒸馏方法和引入一种自适应数据集修剪算法,我们提出一种新方法,在有限的共享数据集预算下,使用一幅图像成功地进行联邦学习,同时还可以训练异构的客户端架构。
提出一种名为 Full-stack FL 的新型联邦学习框架,通过使用分层网络架构和标签驱动的知识蒸馏技术,解决大规模 IoT 网络下的可扩展性问题和异构数据环境下的鲁棒性问题,从而在所有全局蒸馏中显著提高了联邦学习的效率。
Sep, 2022
该研究提出了一种无需原始数据即可解决异构 Federated Learning 问题的新方法,通过使用轻量级生成器来集成用户信息以调控本地训练,并在实验中表现出了更好的泛化能力。
May, 2021
本研究提出了一种基于知识蒸馏的通信高效的联邦学习方法,通过在客户端上互相学习一个学生模型和一个教师模型,只共享学生模型以降低通信成本,并提出了一种基于奇异值分解的动态梯度逼近方法来进一步降低通信成本。实验表明,该方法能够有效减少通信成本并取得竞争性的结果。
Aug, 2021
基于本地到中心的协作蒸馏的无数据联邦学习框架,通过学习对每个本地模型产生一致但独特结果的输入,实现对各种实际世界异构联邦学习场景中的图像分类和分割任务的显著隐私 - 效用权衡。
Dec, 2023