DearFSAC:通过深度强化学习优化不可靠联邦学习的一种方法
本文提出了一种新的深度强化学习框架FedRL,旨在联邦地建立高质量的代理模型,其中考虑到其隐私,并通过利用高斯微分来保护数据和模型的隐私。在Grid-world和Text2Action领域的实验中,该框架与各种基线模型进行了比较。
Jan, 2019
本篇论文提出了一种名为 Fed-SMP 的新型差分隐私联邦学习方案,该方案采用 Sparsified Model Perturbation (SMP) 技术,在保持高模型准确性的同时,提供客户端级差分隐私保证,并使用 Renyi DP 提供紧密的隐私分析,并证明了 Fed-SMP 收敛性,通过实验数据证明了 Fed-SMP 提高了模型准确性并同时节省通信成本。
Feb, 2022
该论文提出了一种名为FedFormer的新型联邦学习策略,使用Transformer Attention对不同学习者代理的模型进行上下文聚合嵌入,从而实现有效且高效的联邦学习,该方法在Meta-World环境中验证了其在联邦学习中的有效性并证明了在隐私约束下使用FedFormer可以实现更高的情节回报,同时还可以在特定任务中通过增加代理池来提高方法的效果表现,与之相比FedAvg无法在规模扩大时取得明显的改善。
May, 2022
通过梯度扰动和局部平坦模型来提高权重扰动鲁棒性和性能,进而减少感知信息泄露,DP-FedSAM算法在DPFL中达到最先进的性能。
May, 2023
我们提出FedDRL,一种基于强化学习的两阶段模型融合方法,通过筛选恶意模型和选择可信的客户模型参与模型融合,并自适应调整可信客户模型的权重,实现最优全局模型的聚合,与两个基准算法相比,在五个模型融合场景中,我们的算法具有更高的可靠性,同时保持准确度。
Jul, 2023
面向新时代的人工智能(AI)网络,关注AI的环境影响引起了行业和学术界的关注。联邦学习(FL)作为一种关键的隐私保护的分散式AI技术已经出现。尽管目前在FL方面已经做了努力,但其环境影响仍是一个悬而未决的问题。为了实现FL过程的能量消耗最小化,我们提出了编排参与设备的计算和通信资源以同时保证模型的一定性能并最小化所需总能量的软演员批判深度强化学习(DRL)解决方案。在培训过程中引入了一项惩罚函数,对违反环境约束的策略进行惩罚,并确保安全 RL 过程。提出了一种设备级同步方法以及计算成本有效的 FL 环境,旨在进一步降低能量消耗和通信开销。评估结果显示所提出的方案在静态和动态环境下与四种最先进的基准方案相比的有效性,能降低总能量消耗高达 94%。
Aug, 2023
提出了一种新的强化联邦学习(RFL)框架,通过深度强化学习在聚合过程中自适应优化客户贡献,提高模型对恶意客户的鲁棒性和参与者之间的公平性,在非独立分布的情况下实现鲁棒性和公平性,并通过验证集性能引导的奖励机制获得了可靠性和公平性的可比较水平。
Feb, 2024
提出了一种通信高效的联合强化学习方法,该方法利用周期性聚合和压缩机制将本地代理的压缩估计聚合到一个中央服务器上,首次对这两种机制进行了有限时间分析,并在实验中验证了算法的收敛性行为。
Mar, 2024
基于Prompt调优和Logit蒸馏的参数高效统一的异构联邦学习框架FedHPL能够有效应对异构挑战,改善模型性能和加速训练,在多种数据集和模型设置下,性能优于当前最先进的联邦学习方法。
May, 2024
本研究解决了联邦学习中由于模型更新引起的隐私泄露问题,提出了一种结合差分隐私和控制理论的沉浸工具的隐私保护框架。研究表明,该框架在确保模型性能和系统效率的前提下,可以灵活调节所需的差分隐私水平,成功避免了传统方法中的隐私与性能之间的权衡问题。
Sep, 2024