重新思考使用非独立同分布数据进行联邦无监督学习的表示
该研究提出了一种名为 FedU 的联邦无监督学习框架,可以在保护数据隐私的同时利用去中心化的未标记图像数据学习视觉表示,并针对数据的非独立同分布问题提出了有效方法,实验证明其优于其他方法。
Aug, 2021
提出了一种新的联邦学习问题 -- 联邦无监督表示学习 (FURL),用于在保护数据隐私的同时学习常见的表示模型。提出了一种基于对比平均和字典对齐的 Federated Constrastive Averaging with dictionary and alignment (FedCA) 算法,以同时解决数据分布转移和表示空间不一致两个挑战。实验证明,FedCA 在各种条件下的表现都优于其他基准算法。
Oct, 2020
提出了一种名为 FedCiR 的客户端不变表示学习框架,通过改进表示和标签之间的互信息项,以及减少客户集和表示之间在标签条件下的互信息项,实现提取信息性和客户端不变的特征,通过两个正则化项来限制近似全局表示分布的互信息项以弥补缺失的真实全局表示分布,进而实现了解决数据异质性和实现客户端不变表示学习的目标。
Aug, 2023
本文着重研究了在本地数据不 IID 的情况下联邦学习面临的统计挑战,提出了一个使用全局数据子集来提高非 IID 数据训练准确性的解决方案,并通过实验表明,使用仅占 5%的全局数据子集就可以将 CIFAR-10 数据集的准确性提高 30%。
Jun, 2018
本文讨论了联邦学习的隐私保护机制,分析了非独立同分布数据对水平和垂直联邦学习中参数和非参数机器学习模型的影响,概括了当前解决非独立同分布数据挑战的方法,并讨论了这些方法的优缺点。最后,提出了研究方向。
Jun, 2021
本文提出了一种名为 RepPer 的独立的两阶段个性化联邦学习框架,其中包括非独立同分布数据(Non-IID data)对全局模型的表示学习的危害,并分离了表示学习和分类器学习,从而实现了个性化,并且在各种数据集和异构数据设置上的实验表明,RepPer 在非独立同分布数据上的灵活性和个性化方面优于其他方法。
Apr, 2022
本文介绍了分布式数据库中的非独立同分布数据的系统性了解和研究的必要性,并通过全面的数据分区策略和广泛的实验来评估现有的联邦学习算法,提供了未来解决 ' 数据孤岛 ' 挑战的启示。
Feb, 2021
本文针对特征分布不同的联邦学习中的特征偏移问题,提出了一种名为 FRAug(联邦表示增强)的方法,利用共享的生成模型在嵌入空间生成客户特定的样本,并通过表示转换网络将嵌入转换为客户特定嵌入,使得生成的嵌入作为正则化器改善了客户的泛化性能,该方法取得了比当前非 IID 特征情况下的各种现有最先进方法更好的效果。
May, 2022
本论文提出了两种算法 FedU 和 dFedU,解决了非独立同分布数据分布导致联邦学习性能下降的问题,并在实验中表现出比现有算法更好的收敛速度和性能,同时指出所提出的联邦多任务学习问题可以用于常规 FL 和个性化 FL 任务。
Feb, 2021
对于分布式数据的异构性,冻结神经网络的最后一层作为正交分类器可以减轻局部偏差,在 IID 和非 IID 设置下,通过应用奇异值分解对权重进行分析,我们引入了两个正则化项,以连续地模拟 IID 设置,并通过广泛的实验验证了我们的方法在非 IID 情况下具有更高的性能。
Feb, 2024