去中心化快速梯度追踪的联邦极小化优化与本地更新
我们提出了一种分散的极小极大优化方法,利用局部更新和梯度跟踪两个重要模块,用于解决分布式学习中的数据异质性和对抗鲁棒性的挑战,并分析了算法 Dec-FedTrack 在非凸 - 强凹极小极大优化情况下的性能,证明其收敛于一个稳定点。同时进行数值实验以支持我们的理论发现。
May, 2024
本文提出了一种基于广义梯度跟踪(GGT)框架的去中心化在线学习算法,并使用新的半定编程分析理论对其性能进行了理论分析和优化,进而得到实际数据集上的优异表现。
Jun, 2023
本研究提出了一种应对全局和局部约束的联邦学习算法,并在实验中展示了其在 Neyman-Pearson 分类和增强模型公平性方面的实际优势。
Oct, 2023
本文探讨在联邦学习中使用自适应优化方法对于本地更新的影响,指出自适应优化方法虽然可以加速模型收敛,但可能导致解决方案出现偏差,为此提出了纠正技术以克服这种不一致性,并在现实联合训练任务上进行了广泛实验,结果表明与没有局部自适应性的基线相比,所提出的算法可以实现更快的收敛和更高的测试准确性。
Jun, 2021
本文提出一种新的收敛分析方法 - Federated Learning Neural Tangent Kernel (FL-NTK),旨在研究在 Federated Learning 框架下,使用逐渐逼近的方法对参数化的 ReLU 神经网络进行梯度下降训练时的收敛性分析,并证明该方法可以在线性时间内收敛到全局最优解,并可通过适当的分布假设获得良好的泛化能力。
May, 2021
本文着重于边缘计算系统中的联邦学习及其参数优化方法,提出了一种参数化的通用联邦学习(GenQSGD)算法,并通过优化全局和本地迭代次数、小批量大小和步骤大小序列等算法参数,以最小化能量成本,并针对预设步长序列的应用优化全局和本地迭代次数、小批量大小和步骤大小序列。数值实验表明,该算法可以显著提高联邦学习的性能。
Nov, 2021
本论文的研究目标是设计一种算法,以实现在异构客户端之间利用相似性的好处,并在任意异质性(最多对数因素)下恢复 Minibatch Mirror-prox 性能的联邦极小极大问题优化算法。主要思想是将(i)搭脚手架(一种在凸优化中跨客户进行方差减少的算法)与(ii)催化剂(一种基于修改目标的加速框架)结合起来,以实现降低对异构性的最差依赖性和加速收敛而不损害客户漂移。实验证明该算法达到了我们的目标。
Feb, 2021
本文提出了一种公平性感知的梯度稀疏化方法,以及一种自适应梯度稀疏化技术,能够在控制梯度稀疏度的情况下,最小化整体训练时间,实验结果表明,相对于传统方法,通过本文所提方法,能够在有限的训练时间内提升 40% 的模型准确度。
Jan, 2020