提出了一种通信高效的联合强化学习方法,该方法利用周期性聚合和压缩机制将本地代理的压缩估计聚合到一个中央服务器上,首次对这两种机制进行了有限时间分析,并在实验中验证了算法的收敛性行为。
Mar, 2024
本文提出了一种基于 Ornstein-Uhlenbeck 过程的方案,在受通信限制的情况下,通过收集具有信息更新的客户端模型和估计没有通信的本地更新的方式来更新中央模型,实现了在保证性能的同时显著减少了通信量,为联邦学习提供了一种新的通信效率优化方案。
Jul, 2020
本文提出了一种基于 Multi-Agent Reinforcement Learning 的 Federated learning 框架 - FedMarl,该框架不仅可以显著提高模型精度,还能大幅降低处理延迟和通信成本,从而解决了 Federated learning 在实际应用中的训练效率问题。
Jan, 2022
调查分析了通信高效的联合学习方法,定义了通信效率的度量方法并提供了系统全面的分类和评述,讨论了提高联合学习系统通信效率的未来研究方向。
May, 2024
本文提出了一种基于移动代理的方法,在 Webots 中用 Tartarus 来去中心化联邦学习,实现在连接机器人的情况下的去中心化联邦增强学习(dFRL),在基于 Q 学习和 SARSA 的实验中,通过聚集它们对应的 Q 表,证明了在机器人领域使用去中心化联邦学习的可行性。
Jul, 2022
提出了一种新的强化联邦学习(RFL)框架,通过深度强化学习在聚合过程中自适应优化客户贡献,提高模型对恶意客户的鲁棒性和参与者之间的公平性,在非独立分布的情况下实现鲁棒性和公平性,并通过验证集性能引导的奖励机制获得了可靠性和公平性的可比较水平。
Feb, 2024
本研究提出了一种协作多智能体强化学习的共识学习方法,通过基于本地观察的共识学习,在分散式执行期间将推断出来的共识明确地作为智能体网络的输入,从而发展他们的合作精神,并在若干完全合作任务上获得了令人信服的结果。
Jun, 2022
本文提出了一种新的众包框架来解决分散式学习中的通信效率问题,并通过制定参与客户端的准入控制方案来保证其本地准确性水平。通过基于激励和 Stackelberg 游戏等模型的分析与模拟实验,证明了该方案的有效性。
Nov, 2019
这篇论文提出了一种名为 FedDec 的算法,通过在 FL 的本地梯度更新之间交错点对点通信和参数平均化的方式,利用跨代理通信来改善 FL 的性能,证明了该算法在数据异构性、设备部分参与和光滑且强凸成本的假设下收敛,并表明代理间通信图谱的谱会改善收敛。
Jun, 2023
通过将学习模型分为全局部分和个性化部分,以实现模型剪枝和个性化,本文提出了一种解决异构设备数据、计算和通信延迟以及非独立同分布数据的联邦学习框架,并通过数学分析研究了其收敛性、计算和通信延迟,并最终通过优化问题得到了剪枝比例和无线资源分配的闭式解。实验结果表明,相比只进行模型个性化的方案,该框架能够显著减少约 50%的计算和通信延迟。
Sep, 2023