FedFA: 联邦特征增强
本文提出了一种名为 FedRDN 的数据增强方法,通过将来自整个联邦系统的数据集统计注入到客户端数据中来有效改善特征分布倾斜 FL 的泛化,从而缓解了不同本地数据集的基础分布所导致的特征漂移问题。
Jun, 2023
本文针对特征分布不同的联邦学习中的特征偏移问题,提出了一种名为 FRAug(联邦表示增强)的方法,利用共享的生成模型在嵌入空间生成客户特定的样本,并通过表示转换网络将嵌入转换为客户特定嵌入,使得生成的嵌入作为正则化器改善了客户的泛化性能,该方法取得了比当前非 IID 特征情况下的各种现有最先进方法更好的效果。
May, 2022
该研究论文介绍了一种用于保护隐私的联邦学习领域的数据增强方法,称为邻域特征级数据增强,该方法能够有效解决不同医学研究机构之间的数据分布差异和局部特征偏移问题,可在 3D 脑肿瘤和心脏分割任务中取得显著改进。
Oct, 2023
通过提出一种被称为联邦特征蒸馏(FedFed)的新方法,本研究肯定了通过共享部分数据特征来解决数据异质性,并在全球范围内共享性能敏感的特征以减轻数据异质性的可能性。
Oct, 2023
邻联学习是一种处理分布式学习问题的重要方法,该论文提出了一种新的邻联学习系统,通过使用零样本数据增强来解决客户端数据统计异质性的问题,以提高联邦网络中客户端之间的精度一致性和公平性。
Apr, 2021
本研究讨论了联邦学习中的数据异质性问题,并提出了一种个性化的联邦学习方法,名为 pFedPM,通过特征上传来减少通信成本和允许异构客户端模型,实验证明该方法在 MNIST、FEMNIST 和 CRIFAR10 数据集上的通信效率优于其他联邦学习方法。
Jun, 2024
本研究提出了一种名为 FedBN 的有效方法,该方法使用本地批量归一化来减轻特征转移非独立同分布问题,并优于现有算法,促进联邦学习的收敛性。
Feb, 2021
提出了一个统一的框架 FLea,通过鼓励客户端交换隐私保护特征来解决过拟合和局部偏差问题,从而提升本地模型的学习效果,实验证明 FLea 在共享模型参数方面优于现有领先的联邦学习方法高达 17.6%,而在共享数据增强方面优于联邦学习方法高达 6.3%,同时降低了与共享数据增强相关的隐私漏洞。
Dec, 2023
本文提出了基于特征对齐 Fed2 的联邦学习框架,通过显式的特征分配和特征配对均值方案,解决了联邦学习过程中参数随机性造成的结构特征不匹配的问题,提高了模型的收敛性能。
Nov, 2021