本论文研究了一组学习代理在协作对等网络中,每个代理根据自己的学习目标学习个性化模型。本文介绍和分析了两种异步流言算法,以完全分散的方式运行。我们的第一种方法旨在在网络上平滑预训练的本地模型,同时考虑每个代理在其初始模型中的置信度。在我们的第二种方法中,代理共同学习和传播其模型,基于其本地数据集和邻居的行为进行迭代更新,为了优化这一具有挑战性的目标,我们的分散算法是基于 ADMM。
Oct, 2016
通过在分散式联邦学习中创建协作图,选择适合的合作方,从而解决数据异构性和通信限制带来的挑战。我们的方法通过一种新颖的、通信高效的策略来解决这些问题,提高资源效率。与传统方法不同,我们的方法通过考虑客户的组合关系在粒度级别上识别合作伙伴,增强个性化同时最小化通信开销。我们通过使用约束贪婪算法的双层优化框架实现这一目标,从而为个性化学习提供资源高效的协作图。通过在各种基准数据集上进行大规模评估,我们证明了我们的方法 DPFL 在处理实际数据异构性、最小化通信开销、提高资源效率以及在分散式联邦学习场景中构建个性化模型方面的优越性。
Jun, 2024
本文提出了一种在节点网络中训练机器学习模型的完全去中心化框架,其中节点通过在模型参数空间上引入信念的贝叶斯式方法,通过聚合来自其一跳邻居的信息进行更新其信念以在整个网络上学习最适合观察的模型的分布式学习算法,同时获得确保每个节点的误差概率很小的充分条件和讨论了应用此算法训练深度神经网络(DNNs)所需的近似,实验证明与节点学习无合作的情况相比,所提出的学习规则算法提供了显着的精度改进。
Jan, 2019
本文提出了一种高效的分散式(点对点)和异步算法来解决个性化模型的学习,同时满足强隐私要求,并证明了它的收敛速率。我们展示了如何使算法往常差异保持私密以保护个人数据集的信息披露,并正式分析了效用和隐私之间的权衡。实验结果表明,在非私密约束下,我们的方法大大优于以前的工作,在隐私约束下,我们可以显著改进在独立学习中得到的模型。
May, 2017
我们提出了一个新的去中心化个性化在线联邦学习设置,用于在在线环境中学习,在每个客户端上学习个性化模型,并在去中心化环境中学习。我们解决了两个技术挑战:如何通过优化本地模型的性能来聚合来自邻近客户端的共享模型参数,并通过学习的聚合权重选择最有帮助的邻居减少通信成本。
Nov, 2023
个性化联邦学习(PFL)在每个客户端寻找最优个性化模型,我们提出了一种分布式的个性化联邦学习(DPFL)框架,通过引入随机梯度推送和部分模型个性化,实现了线性分类器的个性化,达到了更好的收敛速度。
May, 2024
通过开发 P4(Personalized Private Peer-to-Peer)方法解决个性化学习中的客户聚类和数据隐私的挑战,保证每个客户在培训期间和培训后维护不同的隐私保证,并在多个基准数据集和不同的神经网络模型上展示了相对于差分隐私 P2P 技术的高达 40%的精确度提高。
提出了一个简单而有效的个性化联邦学习框架,通过将客户端分组为多个集群并基于服务器端的模型训练状态和数据分布构建连接集群的图,使用加权边更新节点的模型参数,然后设计了一种精确的个性化模型分配策略,以允许客户端从服务器端获取最合适的模型。在三个图像基准数据集和三种类型的合成结构化数据集上进行了实验,实验结果证明了该方法的有效性。
Jan, 2024
文章提出了一种二次罚函数公式,用于训练全局模型并允许个性化本地模型,并且通过采用分层结构建模云和边缘设备之间的通信(同时也适用于云内部的通信),解决了边缘设备异构训练时间引起的延迟问题。理论与实验都证实,这种系统可以更快地收敛于在边缘设备上个性化模型进行训练,比现有技术更优秀。
Dec, 2020
提出了一种基于去中心化通信协议的个性化联邦学习框架,利用个性化稀疏掩码为每个用户的本地模型进行定制,进一步节省通信和计算成本,并在不同复杂度的本地客户端上达到更好的个性化性能。
Jun, 2022