本研究提出一种鲁棒的联邦学习方案,通过并行优化、正则化等方法减小噪声影响,并从理论角度分析了其收敛性和准确性改善,仿真实验进一步验证了该方案的有效性。
Nov, 2019
在 Federated Learning 中,我们提出了一个统计模型来解决异构数据分布和拜占庭机器等统计和计算挑战。在此基础上,我们提出了一个优化算法来解决该问题,并获得了比非拜占庭鲁棒算法更好的估计误差。
Jun, 2019
我们提出了一种新的联邦学习方法,通过动态正则化器在限制设备异构性和大量设备、部分参与和不平衡数据的同时,在凸和非凸情况下实现了高效训练。
Nov, 2021
本文提出了一种基于随机黎曼梯度和流形投影算子的非凸联邦学习算法,用于在异构客户端数据的紧致平滑子流形上提高计算效率,并通过同时利用流形结构和损失函数特性的新型分析,理论上证明了该算法亚线性收敛到一阶最优解附近,数值实验表明我们的算法具有比现有方法更小的计算和通信开销。
Jun, 2024
提出了一种新的联邦学习方案,其中服务器与本地模型合作,通过交换类别的中心来保持一致的决策边界,实现了在网络中使用带有给定噪声的标签的一致决策边界。同时,还提出了选择有自信的样本来更新模型以及全局引导的伪标签方法来更新不自信的样本标签。在嘈杂的 CIFAR-10 数据集和 Clothing1M 数据集上的实验证明,该方法在使用有噪声的标签的联邦学习中非常有效。
Dec, 2020
通过提出集中式的、基于神经网络的联邦学习系统,利用边缘计算减少中央服务器的负载,同时在各种数据分布设置中相对于一些现有基准算法取得令人满意的性能。
Nov, 2023
本文提出一种适用于蜂窝无线网络的联合学习算法,证明了其收敛性,并提供了最优调度策略,同时研究了局部计算步骤和通信步骤对算法收敛的影响。
本文旨在研究在异构样本上进行非凸优化的联邦分布式学习,具体而言,我们将分析分布式方法相对于均匀样本中的隐含方差减少特性在异构样本中的应用,并证明其在广义的非凸和条件下的收敛性与最优性.
Oct, 2019
本文提出了一种使用鲁棒集成中位数的方法来实现联邦学习的鲁棒性,该方法使用常数次迭代实现了随机平均值,不仅能保护隐私,而且在计算机视觉和自然语言处理的三个任务中也有较好的性能。
Dec, 2019
本研究介绍了 FedProx 框架,用于解决联合学习网络中异构性的问题,并提供了实现更稳健收敛的收敛保证和效果验证。
Dec, 2018