减轻联邦学习中基于交叉客户端 GAN 的攻击
本文提出了一种名为 FedAL 的基于对抗学习的联邦知识蒸馏方法,以解决不同客户端的数据异构性问题,通过使用服务器作为鉴别器指导客户端的本地模型训练,实现客户端之间的共识模型输出,并通过较少遗忘的正则化方法保证客户端之间的知识传递和学习能力。实验证明,FedAL 及其变体比其他联邦知识蒸馏方法具有更高的准确率。
Nov, 2023
本文介绍 FedHKD 算法,通过知识蒸馏技术在服务器和客户端之间共享超知识来提高异构数据环境下的个性化联邦学习的表现,该算法不依赖公共数据集或在服务器上部署生成模型。实验证明,FedHKD 算法提高了全局模型和个性化模型表现,超越了现有的一些异构数据联邦学习方法。
Jan, 2023
该研究提出了一种数据无关的知识蒸馏方法,通过生成器探索本地模型的输入空间,并将本地模型的知识传递到全局模型中。实验结果表明,该方法在解决联邦学习中的数据异质性问题及提升模型性能方面,优于现有的联邦学习算法。
Mar, 2022
该研究提出了一种无需原始数据即可解决异构 Federated Learning 问题的新方法,通过使用轻量级生成器来集成用户信息以调控本地训练,并在实验中表现出了更好的泛化能力。
May, 2021
本文提出一种名为 FedACK 的新型联邦对抗式对比知识蒸馏框架来检测社交机器人,该框架采用生成器传递数据分布知识,并使用本地鉴别器进行个性化模型设计和使用硬样本进行数据增强。本地训练采用多阶段对抗和对比学习,能够在客户之间实现一致的特征空间并使局部和全局模型之间的差异减少,表现出了优异的准确性和通信效率。
Mar, 2023
通过提出 InferGuard,一个新颖的拜占庭鲁棒聚合规则,我们的防御机制在保护客户端训练数据分布推断攻击方面表现出高度的有效性,甚至对于强适应性攻击也具有很强的防御能力,并在各种实际的联邦学习场景中显著优于基准方法。
Mar, 2024
提出了一种名为 FedD2S 的创新方法,利用知识蒸馏,通过在无数据知识蒸馏过程中引入深层到浅层的层丢弃机制来加强本地模型个性化,以解决联邦学习框架中客户端数据异质性的挑战。通过在多样的图像数据集上进行广泛的模拟实验,并与现有的联邦学习基准进行比较,该方法表现出卓越的性能,具有加速收敛和改善客户公平性的特征。引入的层丢弃技术有效地捕获个性化知识,从而达到比替代联邦学习模型更好的性能。此外,研究了关键超参数(如参与比例和层丢弃率)的影响,并提供了对 FedD2S 的最佳配置的有价值的见解。研究结果表明,自适应层丢弃在知识蒸馏过程中能够实现在不同数据集和任务中的增强个性化和性能。
Feb, 2024
本文提出了一种基于联邦学习框架的隐私保护和通信高效方法,使用未标记的跨域公共数据进行一次离线知识蒸馏,提出了一种量化和嘈杂的本地预测集成方法,同时保证了强隐私保证和高准确性。
Sep, 2022
本文研究了联邦生成对抗网络(FedGANs)中后门攻击的问题,提出了一种高效的防御措施 ——FedDetect。在两个不同模态的医学数据集上进行了实验,表明后门攻击会导致低保真度合成图像,但使用 FedDetect 能够抵御此类攻击,以提高分類性能。
Oct, 2022
通过减少客户端之间的异质性,本研究提出了一种传递知识的方法,利用客户端专用生成器为每个客户端生成样本,以减少与其他客户端模型的冲突,从而构建出具有良好泛化能力的全局模型。
Aug, 2023