- FedTrans: 异质客户端之间的高效联合学习通过模型转换
FedTrans 是一个多模型联邦学习训练框架,可以自动为大规模异构客户端生成和训练高准确性、硬件兼容的模型,显著提高了个体客户端模型的准确性并降低了训练成本。
- MMFed-CVLC:变长编码压缩联邦学习通信
通过分析和实验证明可变长度对于 Federated Learning 中的压缩是有利的,因此提出了 Fed-CVLC 方法,用以根据模型更新动态来调整代码长度,最小化通信损耗并提高模型效用。通过实验证明 Fed-CVLC 优于现有基准方法, - 分布式学习的梯度核心集
基于梯度的鲁棒高效联邦学习(GCFL)算法提出了一种在每 K 轮通信选择 coreset、从 coreset 中获取更新的方法,以账单客户数据噪声。实验证明 GCFL 相较于 FL 更具计算和能耗效率,对特征和标签的各种噪声具有鲁棒性,且保 - AAAI基于 CLIP 引导的异构和长尾数据联邦学习
采用 CLIP 指导的联合学习(CLIP2FL)方法在异构和长尾数据上进行了研究,通过使用 CLIP 模型的知识转移,构建客户端和服务器之间的桥梁,改善了客户端特征表示能力,生成联合特征以重新训练服务器模型,以减轻用户异构性和类分布不平衡问 - 高效的异构联邦学习与广义重力球动量
以边缘设备为学习对象的联邦学习 (Federated Learning, FL) 是解决隐私限制场景下的分布式数据学习的最先进方法。本论文提出了 FedHBM 算法,通过引入新的动量泛化方法,有效解决 FL 中的统计异质性问题,无需增加通信 - 基于滤波感知的联合学习的能量激活
FedOFA 是一种利用个性化的正交滤波器注意力进行参数重新校准的方法,在服务器端运行,不会给客户端增加额外的计算成本,在通信受限的情况下具有优势,并通过引入注意力引导的剪枝策略,以降低通信成本而不损失性能。
- FedCode: 通过传输密码本实现高效沟通的联邦学习
FedCode 是一种降低通信量的分布式机器学习方法,通过只传输代码簿来有效减少客户端与服务器之间的数据交互,同时保持与 FedAvg 相当的模型性能。
- FLrce: 基于关系的客户选择和提前停止策略的高效联邦学习
FLrce 是一种高效的联邦学习框架,具有基于关系的客户选择和提前停止策略,可以加速 FL 过程并节省通信和计算资源。实验结果表明,FLrce 提高了通信和计算效率,并保持了竞争性的准确性。
- FedL2P:个性化联邦学习
该论文研究了联邦学习(FL)的个性化策略问题,并介绍了一种通过元网络(meta-nets)在 FL 网络中学习个性化策略的框架,该框架通过学习元网络的批量归一化和学习率参数来为每个客户端生成定制的个性化策略。实证结果表明,该框架在标签偏移和 - FedFNN:基于更新预测的联邦推荐系统中的训练快速收敛
FedFNN 是一种用于加速分布式模型训练的算法,通过在样本集中使用未采样用户的权重更新,从而在保持或提高准确性的同时,实现比其他方法快 5 倍的训练速度,且在客户端群集变化的情况下表现一致,在可用性有限的情景中优于其他方法,更快地收敛。
- 社区检测攻击:针对基于协作学习的推荐系统
本文研究基于协作学习的推荐系统,发现当前解决隐私问题的方法容易受到社区检测攻击(Community Detection Attack,CDA)的威胁。通过三个真实的推荐数据集以及两种现代化的推荐模型的实验,研究人员发现,在 FL 和 Gos - FedZero:利用可再生过剩能源实现联邦学习
提出了基于可再生能源、FedZero 的联邦学习系统,利用能量和负载预测,在历史太阳能和负载状况的基础上,选择客户端进行快速收敛和公平参与,从而将训练的操作碳排放降至零。
- FedLP:面向通信计算效率的层次剪枝联邦学习机制
本文介绍一种针对分布式学习中计算和通信优化的显式 FL 剪枝框架 (FedLP),采用层次剪枝在本地训练和协作更新中,两种特定方案的实验验证表明 FedLP 可以减轻通信和计算瓶颈并具有良好的性能。FedLP 是将层次剪枝正式引入 FL 的 - FedPDC:面向公共数据集纠错的联邦学习
本文介绍了一种新的 Federated Learning 算法 FedPDC,通过使用某些行业的共享数据集来优化本地模型的聚合方式和本地训练的损失函数。在许多基准实验中,FedPDC 可以在极度不平衡的数据分布情况下有效提高全局模型的准确性 - 通过间接的服务器 - 客户端通信实现联邦学习
本文提出了一种基于移动传输器的联邦学习框架 FedEx (FL via Model Express Delivery),旨在解决缺乏适当通信基础设施的实际应用中数据共享的问题。FedEx-Sync 和 FedEx-Async 两种算法分别采 - NVIDIA FLARE: 从模拟到现实世界的联合学习
NVIDIA FLARE 是一个开源软件开发工具包,使得数据科学家可以更容易地在其研究和实际应用中使用联邦学习,可以应用不同的隐私保护算法进行多方协作。
- FedDM:基于迭代分布匹配的通信高效联邦学习
本研究提出了 FedDM,旨在通过多个本地替代函数来构建全局训练目标,从而减少通信轮数,改善模型质量,并在保留差分隐私的同时证明该算法的有效性。
- MM一个可扩展的基于区块链的联邦学习系统中的公正性、完整性和隐私保护
本论文旨在探究如何采用区块链技术,本地差分隐私和零知识证明等前沿技术,构建一个公平、透明、保护隐私的分散式机器学习系统,以有效解决实践中的公正、完整性和隐私问题。
- ICLR非独立同分布联邦学习中部分工作人员参与实现线性加速
本文研究证明了在非独立同分布数据集和部分工人参与的情况下,联邦学习中的联邦平均算法可以实现线性加速。此外,本文还发现,在联邦学习中的本地步骤可以帮助收敛,并且在完全工人参与的情况下,可以将本地步骤的最大次数提高到 $T/m$。
- FedML:联邦机器学习研究库与基准
介绍了一个开放的研究库和基准,名为 FedML,旨在促进联邦学习算法的开发和公平性能比较,支持三种计算范例,并带有灵活和通用的 API 设计和全面的参考实现。