本文介绍了 FedPer,一种基本 + 个性化层式的联邦深度前馈神经网络训练方法,旨在对抗数据异质性的负面影响,提升联邦学习的训练效果。FedPer 的有效性在 CIFAR 数据集和 Flickr 个性化图像美学数据集上得到了证明。
Dec, 2019
通过共享表示,DePRL 是一种新颖的个性化分布式学习算法,可以实现分布式学习的线性加速收敛,并在数据异构环境中展示出卓越的性能。
Dec, 2023
Pa3dFL 是一个增强容量异构模型的新型框架,通过解耦和选择性地在容量异构模型之间共享知识,提高了本地模型的性能。通过将模型的每个层分解为通用参数和个性参数,并保持通用参数在客户端之间的统一大小并进行直接平均聚合,然后使用可学习的嵌入通过超网络为客户端生成大小变化的个性参数,最后通过自注意模块通过聚合客户端嵌入来实现个性参数的隐式聚合。通过在三个数据集上进行的广泛实验,我们的研究结果表明 Pa3dFL 在不同的异构设置下始终优于基准方法。此外,与基准方法相比,Pa3dFL 表现出竞争性的通信和计算效率,突显了它在不利系统条件下的实用性和适应性。
May, 2024
本文介绍了一种部分个性化的联邦学习(FL)方法,旨在在个性化和全局训练的灵活性之间取得平衡,并提出了一种简单的算法来解决数据异构性问题。
May, 2023
本文提出了一种新的字典学习方法,依据共性和特异性的原理同时学习共性和分类特定的特征以实现更准确的分类,并通过实验验证了该方法的效率和实际应用的优越性。
Oct, 2016
本文提出了一种名为 RepPer 的独立的两阶段个性化联邦学习框架,其中包括非独立同分布数据(Non-IID data)对全局模型的表示学习的危害,并分离了表示学习和分类器学习,从而实现了个性化,并且在各种数据集和异构数据设置上的实验表明,RepPer 在非独立同分布数据上的灵活性和个性化方面优于其他方法。
Apr, 2022
提出了一个新的结构判别性分块对角线字典学习方法,称为可扩展的局部限制投影字典学习(LC-PDL),用于有效的表示和分类,通过学习结构化的判别性字典和分块对角线表示来提高可扩展性,并避免利用昂贵的 I0/I1 范数等,实现了省略新样本的稀疏重建过程,更重要的是避免使用补充数据矩阵来学习每个类别的子字典,该方法还在 DL 过程中加入原子的局部性约束来保留局部信息,从而获得样本在每个类别上的编码,并推导出了一个分块对角线的判别逼近项来学习判别性投影,以从数据中提取出特殊的分块对角线特征来确保近似系数与其标签信息相关联,最后,还训练了一个强健的多类分类器,用于精确的标签预测。
May, 2019
该论文提出了一种新的个性化经验风险最小化(PERM)范式,以便从异质数据源中学习,而不对参与设备共享的计算资源施加严格的约束。在 PERM 中,我们旨在通过有效估计数据分布之间的统计差异来学习每个客户端的不同模型,从而实现所有局部分布的最佳统计准确度并克服数据异质性问题。为了在规模上学习个性化模型,我们提出了一种分布式算法,用模型洗牌来同时优化所有设备的 PERM 目标,取代了标准的模型平均。这还允许我们为不同的客户端学习不同的模型架构(例如,具有不同参数数量的神经网络),从而限制了各个客户端的底层存储和计算资源。我们对所提算法的收敛性进行了严格分析,并进行了实验证明了所提范式的有效性。
Oct, 2023
本文研究了联邦学习的个性化变种,在 Model-Agnostic Meta-Learning 框架下,通过个性化 Federated Averaging 算法,根据不同用户数据的分布差异,探讨其性能的影响。
Feb, 2020
本文探讨了通过元学习算法为联邦学习实现个性化的可能性。结果表明,联邦平均算法可以被解释为一种元学习算法,并且通过细致的微调,可以得到更准确、更易于个性化的全局模型。
Sep, 2019