此论文使用多目标进化算法优化神经网络模型的结构,以同时减少通信成本和全局模型测试误差,提高联邦学习的学习性能和效率。
Dec, 2018
本文介绍了 BOOM 算法,研究了进化计算中的隐私保护问题。针对三种典型的优化范式(即集中式、分布式和数据驱动的优化),本文采用 BOOM 算法以平衡优化性能和隐私保证的方式探讨了潜在的隐私保护技术并提出新的隐私保护进化计算方向。
Mar, 2023
本文提出了一种将联邦学习设计为多目标优化问题的新算法 FedMGDA+,该算法可保证收敛于 Pareto 稳态解,以确保在保护用户隐私的同时,确保公平性和鲁棒性。实验结果表明,FedMGDA + 相对于现有的联邦学习算法具有更好的性能表现。
Jun, 2020
本文旨在通过开发二种基于 NSGA-II 和 PSL 算法的改进型多目标优化算法,实现联邦学习系统的多目标优化,包括模型性能最大化,隐私泄露和培训成本最小化以及对恶意攻击的鲁棒性,并在保证模型性能的同时,优化三个主要目标:隐私泄露、效用损失和培训成本。我们还对三种隐私保护机制 (随机化、批量加密和稀疏化) 进行了比较,并使用实验验证了算法的有效性.
Apr, 2023
提出一种新的联邦多目标学习 (FMOL) 框架,使多个客户端通过分布式和协作的方式解决多目标优化问题,同时保持其训练数据的私密性。该框架支持不同客户端之间的不同目标函数,将多目标优化的思想推广到联邦学习范式中,并提出两种新的联邦多目标优化算法,分别为联邦多梯度下降平均 (FMGDA) 和联邦随机多梯度下降平均 (FSMGDA)。这两种算法通过本地更新显著降低通信成本,并达到与单目标联邦学习的算法相同的收敛速度。大量实验证实了所提出的联邦多目标优化算法的有效性。
Oct, 2023
本文提出了一种局部差分隐私联邦学习算法,用于强凸但可能非光滑问题,以保护每个参与者的梯度免受诚实但好奇的服务器的侵犯,并通过给共享信息添加人工噪声来保证隐私,并动态分配时变噪声方差以最小化一个预定义的隐私预算约束下的优化误差上界,从而可以在无需调整迭代次数的情况下,在可接近最优解的周围实现隐私保护和效用,数值结果表明该算法优于现有的方法。
Aug, 2023
本论文旨在提供针对联邦优化算法的具体指导和实用实现,重点关注进行有效模拟以推断实际效果,并鼓励研究人员设计适用于各种实际应用的联邦学习算法。
Jul, 2021
提出了一种新的算法,通过差分隐私保护的联邦优化算法来处理联邦学习中的差分攻击问题,能够在只牺牲模型性能的小量代价下保持客户端差分隐私。
Dec, 2017
我们提出了一种名为 Fed-GO-UCB 的新算法,用于具有通用非线性目标函数的联邦赌博优化问题,通过严格证明,Fed-GO-UCB 能够以次线性速率实现累积遗憾和通信成本。
Nov, 2023
本文为联邦异构优化提供了一个通用的框架,分析了算法的收敛性,解决了不同本地数据集和计算速度引起的目标不一致性问题,并提出了 FedNova 方法,实现了快速错误收敛并消除了目标不一致性。
Jul, 2020