FedP3:基于模型异构的联邦化个性化和隐私友好的网络剪枝
本文提出了一种针对统计异质性和非独立同分布数据的个性化全局模型联邦学习方法,使用混合剪枝和非结构化剪枝找到每个客户端的小型子网络来实现模型的个性化,实验结果表明,具有相似标签数据的客户端共享类似的个性化参数。
May, 2021
本研究讨论了联邦学习中的数据异质性问题,并提出了一种个性化的联邦学习方法,名为 pFedPM,通过特征上传来减少通信成本和允许异构客户端模型,实验证明该方法在 MNIST、FEMNIST 和 CRIFAR10 数据集上的通信效率优于其他联邦学习方法。
Jun, 2024
Pa3dFL 是一个增强容量异构模型的新型框架,通过解耦和选择性地在容量异构模型之间共享知识,提高了本地模型的性能。通过将模型的每个层分解为通用参数和个性参数,并保持通用参数在客户端之间的统一大小并进行直接平均聚合,然后使用可学习的嵌入通过超网络为客户端生成大小变化的个性参数,最后通过自注意模块通过聚合客户端嵌入来实现个性参数的隐式聚合。通过在三个数据集上进行的广泛实验,我们的研究结果表明 Pa3dFL 在不同的异构设置下始终优于基准方法。此外,与基准方法相比,Pa3dFL 表现出竞争性的通信和计算效率,突显了它在不利系统条件下的实用性和适应性。
May, 2024
通过减少客户端之间的异质性,本研究提出了一种传递知识的方法,利用客户端专用生成器为每个客户端生成样本,以减少与其他客户端模型的冲突,从而构建出具有良好泛化能力的全局模型。
Aug, 2023
Federated Modular Network (FedMN) is a novel Personalized Federated Learning approach that adapts to the joint distribution among local clients and produces personalized module block selection with a light-weighted routing hypernetwork, resulting in more effective and efficient learning compared to existing methods
Oct, 2022
联邦学习的普及与人工智能应用中对数据隐私的关注日益增长。联邦学习促进了多方合作的模型学习,同时确保了数据保密性。然而,由于不同客户数据分布导致的统计异质性问题,会带来一些挑战,例如不足的个性化和收敛速度慢。为了解决上述问题,本文简要总结了个性化联邦学习领域的当前研究进展,概述了个性化联邦学习的概念,审视了相关技术,并强调了当前的努力。此外,本文还讨论了个性化联邦学习的潜在进一步研究和障碍。
Feb, 2024
提出一种名为 pFedGate 的方法,通过自适应和高效地学习稀疏本地模型来实现高效个性化联邦学习,并通过轻量级可训练的门控层使客户端生成不同的稀疏模型,同时考虑到异构的数据分布和资源限制,实现了计算和通信的效率提高,理论上的收敛性和泛化误差更优越,实验证明该方法相对于同类方法能够同时实现更高的全局准确性、个体准确性和效率,并能够适应不同的数据分布。
May, 2023
本文介绍了针对异构客户端的联邦学习框架,基于训练本地的贝叶斯模型,通过在网络的输出空间中加入监管,提供了处理不同限制和限制条件的自然方法,并提供了严格保密性保证和模型的不确定性表征
Jun, 2023
在异构环境中,提出了一种新颖的联邦学习训练框架,考虑了真实环境中客户端的各种网络速度差异。该框架集成了异步学习算法和修剪技术,有效解决了传统联邦学习算法在涉及异构设备的场景中的低效问题,同时解决了异步算法中某些客户端训练不充分和过时问题。通过在训练过程中逐步恢复模型大小,该框架加快了模型训练速度,同时保留了模型准确性。此外,还引入了改进的联邦学习聚合过程,包括缓冲机制,使异步联邦学习能够像同步学习一样进行操作。另外,在服务器向客户端传输全局模型的过程中进行了优化,减少了通信开销。我们在各种数据集上的实验表明:相对于传统的异步联邦学习和异构联邦学习,我们的方法在减少训练时间和提高收敛准确性方面取得了显著的改进;我们的方法在存在异构客户端和非独立同分布客户端数据的场景中优势更加明显。
Mar, 2024
提出了一种叫作 FedPrune 的系统,通过剪枝全局模型来解决 Federated learning 中的系统异构和统计异构所引起的问题,并利用中心极限定理的洞见来实现在非独立同分布数据上的强健性性能,并与 Federated Averaging 相比,FedPrune 提供了更好的鲁棒性和公平性。
Oct, 2021