该研究提出了一种数据无关的知识蒸馏方法,通过生成器探索本地模型的输入空间,并将本地模型的知识传递到全局模型中。实验结果表明,该方法在解决联邦学习中的数据异质性问题及提升模型性能方面,优于现有的联邦学习算法。
Mar, 2022
本文提出了一种基于分布式知识一致性的无代理数据 Federated Distillation 算法以减轻客户端模型异质性带来的知识不一致问题,并设计了优化策略以保证本地模型参数能够满足近似相似分布并被视为一致。实验表明该算法在多种异构设置下均明显优于现有方法并大幅提高了收敛速度。
Apr, 2022
基于数据异构和模型异构的联邦学习场景中,使用无数据的知识蒸馏机制提出了 DFRD 方法,在服务器上通过条件生成器逼近客户端上传的本地模型训练空间,并通过动态加权和标签采样准确提取本地模型的知识,实验证明 DFRD 相较于基准模型取得了显著的性能提升。
Sep, 2023
本文介绍 FedHKD 算法,通过知识蒸馏技术在服务器和客户端之间共享超知识来提高异构数据环境下的个性化联邦学习的表现,该算法不依赖公共数据集或在服务器上部署生成模型。实验证明,FedHKD 算法提高了全局模型和个性化模型表现,超越了现有的一些异构数据联邦学习方法。
Jan, 2023
提出一种名为 Full-stack FL 的新型联邦学习框架,通过使用分层网络架构和标签驱动的知识蒸馏技术,解决大规模 IoT 网络下的可扩展性问题和异构数据环境下的鲁棒性问题,从而在所有全局蒸馏中显著提高了联邦学习的效率。
Sep, 2022
该论文就联邦蒸馏(FD)提供了全面的概述,介绍了其最新进展,探讨了 FD 框架的基本原理,阐述了应对各种挑战的 FD 方法,并提供了 FD 在不同场景中的多样化应用。
Apr, 2024
本文综述了基于知识蒸馏的联邦学习的现状、方法和挑战,并探讨了隐私保护、数据异构性、通信效率和个性化等相关问题。
Jun, 2024
本文提出了一种基于联邦学习框架的隐私保护和通信高效方法,使用未标记的跨域公共数据进行一次离线知识蒸馏,提出了一种量化和嘈杂的本地预测集成方法,同时保证了强隐私保证和高准确性。
利用优化的无服务器工作流程,在 FaaS 环境下实现基于知识蒸馏的异构客户端模型的联邦学习(FL)系统,实验证明无服务器 FedDF 比无服务器 FedMD 更快、成本更低且对极端非独立同分布数据分布更加鲁棒。
Feb, 2024
在神经网络中,联邦学习的性能通常受到数据分布的异构性的影响。本研究提出了一种新的联邦学习框架,配备了去中心化知识蒸馏(FedDKD)的过程,通过分布在本地的局部模型来训练全球模型,可以更有效地拟合神经网络映射平均值,来克服权重计算问题。实验证明,FedDKD 在一些极度异构的数据集上表现出更高的效率和更好的训练结果,优于现有的联邦学习算法。
May, 2022