- ICLRFedBN:通过本地批量归一化在非独立同分布特征上进行联合学习
本研究提出了一种名为 FedBN 的有效方法,该方法使用本地批量归一化来减轻特征转移非独立同分布问题,并优于现有算法,促进联邦学习的收敛性。
- 使用拉普拉斯正则化的联邦多任务学习的新视角和收敛速率
本论文提出了两种算法 FedU 和 dFedU,解决了非独立同分布数据分布导致联邦学习性能下降的问题,并在实验中表现出比现有算法更好的收敛速度和性能,同时指出所提出的联邦多任务学习问题可以用于常规 FL 和个性化 FL 任务。
- 连续学习复杂场景的简单管理
本文介绍了连续学习是一种机器学习子领域,旨在处理非 iid 数据。数据分布随时间漂移可能会干扰训练模型和忘记先前学习的知识。这篇论文提出了一个简单高效的框架 Continuum,它包含多个数据加载器以及多种场景和评估指标,可用于直接关注模型 - 非独立同分布数据孤岛上的联邦学习:一个实验研究
本文介绍了分布式数据库中的非独立同分布数据的系统性了解和研究的必要性,并通过全面的数据分区策略和广泛的实验来评估现有的联邦学习算法,提供了未来解决 ' 数据孤岛 ' 挑战的启示。
- ASFGNN: 自动分离 - 联合图神经网络
本文提出了一个自动化的分离式联邦图神经网络学习范式 (ASFGNN),该范式包括 GNN 的训练和超参数调整两个主要组成部分,通过分离 - 联邦 GNN 学习模型和贝叶斯优化技术解决了数据的 Non-IID 问题和超参数调整的耗时问题,实验 - 非独立分散数据的有效联邦自适应梯度方法
本文提出了各种基于联邦学习的自适应梯度方法以及各种校准方法,比如标准 Adam,p-Adam 和激活函数校准方法等等,为非凸优化中非独立同分布和不平衡数据中的(校准的)联邦 AGMs 提供了第一组理论结果。通过与现有的联邦学习方法 FedA - 非独立同分布数据联邦学习的反距离聚合
本研究提出了一种新颖的自适应加权方法(IDA),使用元信息来处理医疗数据中的统计异质性问题,以提高联邦学习的精度。我们在医学图像领域对 IDA 方法和 Federated Averaging 方法进行了大量分析和评估。
- AAAI解决联邦学习中的类别不平衡问题
本文提出了一种监测模式以及一种新的比率损失函数,用于检测和减轻联邦学习中的类别失衡问题,并展示了其在保护客户隐私的同时在相对效率和精度方面的优越性。
- AAAI非独立同分布数据上的个性化跨边界联邦学习
本文提出了 FedAMP 方法,采用联邦关注的消息传递,在客户端之间建立两两合作,使具有相似数据的客户端更好地协作,进而解决非独立同分布数据对联邦学习的困难。实验结果表明,FedAMP 方法在标准数据集上有着优越的性能。
- FedFMC:在非独立同分布数据上进行序列高效联邦学习
我们提出了 FedFMC(Fork-Merge-Consolidate),它是一种能够处理非独立同分布数据的联邦学习算法,相较于以往的方法,FedFMC 不需要使用全局共享数据子集,同时也不会增加通信成本。
- KDDFedCD: 非独立同分布联邦学习性能改进
提出 FedCD 方法,将模型动态地克隆和删除以将设备分组,实现在非独立同分布的数据上高精度和更快的收敛。
- 利用本地更新的分层聚类来提高非独立同分布数据的联邦学习
本文提出了一种修改的联邦学习 (FL+HC) 方法,通过引入分层聚类步骤将客户端分为相似的集群,然后对这些集群进行独立并行的训练,实现在非独立同分布的数据环境下的模型训练,通过该方法可以使模型的性能、收敛速度、精度都有所提升。
- 非独立同分布数据上 FedAvg 的收敛性
本文中,我们分析了在非独立同分布数据上的 FedAvg 算法的收敛性,并在强凸和平滑问题上建立起一个 O (1/T) 的收敛率,研究了部分设备参与的不同平均方案,结果表明数据的异质性会降低收敛速度,并提供了一个必要条件,即遇到非独立同分布数 - 非独立同分布数据下的联邦学习
本文着重研究了在本地数据不 IID 的情况下联邦学习面临的统计挑战,提出了一个使用全局数据子集来提高非 IID 数据训练准确性的解决方案,并通过实验表明,使用仅占 5%的全局数据子集就可以将 CIFAR-10 数据集的准确性提高 30%。