个性化联邦学习参数选择的贝叶斯神经网络
本文提出了一种基于贝叶斯方法的个性化联邦学习框架,采用参数后验的正态化流实现了个性化,从理论上分析了正态化流对贝叶斯神经网络的异常检测的影响,并通过在异构数据集上的实验结果表明,该方法不仅提高了准确性,还在异常检测方面优于基线模型。
Feb, 2024
本文介绍了一种 Bayesian nonparametric framework,用于 federated learning 问题,其通过 neural networks 对每个数据服务器提供的本地权值进行建模,并且提出了一种推理方法,以在单个通信回合或很少的通信回合中合成更多表达性的全局网络。这种方法在两个流行的图像分类数据集的 federated learning 问题上得到了很好的应用效果。
May, 2019
本文介绍了 FedPer,一种基本 + 个性化层式的联邦深度前馈神经网络训练方法,旨在对抗数据异质性的负面影响,提升联邦学习的训练效果。FedPer 的有效性在 CIFAR 数据集和 Flickr 个性化图像美学数据集上得到了证明。
Dec, 2019
本文提出了一种名为 pFedBayes 的新型个性化联合学习方法,采用贝叶斯变分推理,通过引入权重不确定性来减轻模型过拟合的问题,在满足客户端全局分布的 KL 散度的同时,通过平衡私有数据的构造误差来更新其本地分布参数,理论分析说明了平均泛化误差的上界和收敛速度,实验结果表明,该方法在个性化模型方面表现出色,相较于其他先进的个性化方法,例如在非 i.i.d. 有限的数据下,pFedBayes 在 MNIST、FMNIST 和 CIFAR-10 上分别比其他 SOTA 算法的结果更好,分别提高了 1.25%、0.42% 和 11.71%。
Jun, 2022
本文提出了一种基于超网络的个性化联邦学习方法 pFedHN,该方法可以协同训练多个客户端的个性化模型,在考虑数据分布差异和减少通信成本的同时实现有效的参数共享,并在多个个性化联邦学习挑战中得到了很好的表现。
Mar, 2021
我们开启了对个性化无监督学习的系统研究,通过基于层次贝叶斯统计框架的优化准则,开发了一种自适应算法,在使用有限的本地数据和协作信息之间寻找平衡。我们在个性化降维和个性化扩散模型的背景下开发了我们的自适应算法,并对其进行了收敛性分析,揭示了问题参数(例如,异质性,本地样本大小)的依赖关系。我们还为个性化扩散模型开发了一个理论框架,展示了即使在异质性下也能从协作中获益。最后,我们使用合成和真实数据评估了我们提出的算法,展示了通过协作诱发的针对个性化任务的有效样本放大,尽管数据异质性存在。
Feb, 2024
本文提出了一种新的联邦学习框架,名为 FedSelect,可以通过发现最佳参数进行个性化,并同时进行其他参数进行全局聚合,以此同时地个性化客户子网络结构和参数。
Jun, 2023
FedSelect 是一种新的个性化联邦学习算法,通过逐步扩展子网络对客户参数进行个性化,并在剩余参数上进行全局聚合,从而解决了客户数据异质性问题。
Apr, 2024
个性化联邦学习中的数据异质性是一个重要问题,目前的方法未能根据每个本地客户端的数据特征定制合作方式,导致聚合结果不理想。为解决这一问题,我们提出了一种基于算法展开的个性化联邦学习框架 Learn2pFed,使每个客户端能够自适应地选择其本地模型参数中应参与协作训练的部分。Learn2pFed 的关键创新之处在于通过算法展开方法,将每个本地模型参数的参与程度作为可学习参数进行优化。实验证明 Learn2pFed 在回归、预测和图像分类等多个任务中显著优于以往的个性化联邦学习方法。
Jan, 2024
通过对预测的不确定性进行精确建模,本研究提出了一种新的联邦学习方法,能够选择在特定输入点上表现更好的全局模型和个性化模型,该模型在现实世界的图像数据集上进行的全面实验评估表明其在存在超领域数据的情况下表现优异,并且在标准场景中与最先进的个性化联邦学习算法相当。
Dec, 2023