本文提出了一种基于分布式知识一致性的无代理数据 Federated Distillation 算法以减轻客户端模型异质性带来的知识不一致问题,并设计了优化策略以保证本地模型参数能够满足近似相似分布并被视为一致。实验表明该算法在多种异构设置下均明显优于现有方法并大幅提高了收敛速度。
Apr, 2022
该研究提出了一种无需原始数据即可解决异构 Federated Learning 问题的新方法,通过使用轻量级生成器来集成用户信息以调控本地训练,并在实验中表现出了更好的泛化能力。
May, 2021
该论文就联邦蒸馏(FD)提供了全面的概述,介绍了其最新进展,探讨了 FD 框架的基本原理,阐述了应对各种挑战的 FD 方法,并提供了 FD 在不同场景中的多样化应用。
Apr, 2024
本文提出了一种新的联邦蒸馏机制(Selective-FD),其中包括客户端和服务器端选择器来准确地识别本地和集合预测的知识以增强联邦学习框架的泛化能力,并在实验中得到验证。
Apr, 2023
基于数据异构和模型异构的联邦学习场景中,使用无数据的知识蒸馏机制提出了 DFRD 方法,在服务器上通过条件生成器逼近客户端上传的本地模型训练空间,并通过动态加权和标签采样准确提取本地模型的知识,实验证明 DFRD 相较于基准模型取得了显著的性能提升。
Sep, 2023
本文提出了一个利用未标记公共数据进行单向离线知识蒸馏的隐私保护联邦学习框架。通过集成注重蒸馏,利用本地知识训练中央模型。我们的技术采用分散和异构的本地数据,显著降低了隐私泄漏的风险。通过图像分类、分割和重构任务的大量实验,证明我们的方法在具有更强的隐私保护的同时实现了非常有竞争力的性能。
Oct, 2022
本文综述了基于知识蒸馏的联邦学习的现状、方法和挑战,并探讨了隐私保护、数据异构性、通信效率和个性化等相关问题。
Jun, 2024
本研究探讨联邦学习在医疗应用中的优势,分析其如何能够解决医疗数据隐私、安全及所有权等挑战,讨论如何通过本地步骤和沟通轮数的调整来进一步提高模型的性能,并提供了理论证明和实验评估的支持。
基于深度生成模型的高效联邦学习数据集精简框架,在服务器端显著减少本地设备的计算和通信需求,提高客户端隐私,同时有效降低资源利用,通过理论分析和实证证据验证了其在高度异构的联邦学习环境中相较于非数据集精简技术的优越性,准确性提升高达 40%,超过已有的数据集精简方法 18%。
Dec, 2023
本文提出了一种基于联邦学习框架的隐私保护和通信高效方法,使用未标记的跨域公共数据进行一次离线知识蒸馏,提出了一种量化和嘈杂的本地预测集成方法,同时保证了强隐私保证和高准确性。
Sep, 2022