- FedAQ: 基于上下行自适应量化的通信高效联邦边缘学习
通过使用量化的综合方法,联合上下行适应性量化以减少通信开销,我们优化了学习收敛性,并通过确定最优的上行和下行量化位数进行了通信能量约束。实验结果表明,所提出的联合上行和下行适应性量化策略与现有方案相比,能够节省高达 66.7% 的能量。
- 压缩误差反馈实现高效垂直联邦学习
提出了一种错误反馈压缩式纵向联邦学习(EFVFL)方法,该方法通过利用错误反馈,在满批次情况下实现了 $\mathcal {O}(1/T)$ 的收敛速度,改善了垂直 FL 中压缩方法的收敛速度,并且与未压缩的方法相匹配,同时支持使用私有标签 - 对分割联邦自监督学习进行深入剖析
通过分割网络层,将网络层分配给客户端设备和中央服务器,我们介绍了一种名为 MonAcoSFL 的 Momentum-Aligned contrastive Split Federated Learning 方法,通过保持深度分割来维护隐私和 - SSNet: 高效轻量级多方计算框架 —— 云中实用的隐私保护机器学习服务
SSNet 是第一个基于 Shamir's secret sharing 的 MPC-based ML framework,能够扩展计算参与方数量,减少通信开销,并在性能上显著提升,与最先进的 MPC frameworks 相比,速度提高了 - 通信高效的剪辑均匀量化器用于联邦学习
该论文介绍一种在联邦学习环境中使用剪辑均匀量化的方法,旨在通过减少通信开销而不降低准确性来提高模型效率。通过采用最优剪辑阈值和自适应量化方案,我们的方法显著减少了客户端和服务器之间模型权重传输的比特需求。通过在 MNIST 数据集上进行广泛 - FL-TAC: 通过低秩、任务特定的适配器聚类增强联邦学习中的微调
通过低秩适配器进行通信开销较小的模型微调以解决大规模预训练模型在联邦学习框架中的高通信成本问题。
- 个性化协作微调用于设备上的大型语言模型
在设备上进行自我监督的合作微调大规模语言模型的研究,使用三种不同的信任加权梯度集成方案,并与 FedAvg 和本地微调方法相比,使用少量的数据交换和 LoRA 权重更新,显示出在本地数据分布不均的现实场景中处理异质性和稀缺性方面的有效性。
- FAGH:使用近似的全局 Hessian 加速联邦学习
本文提出了一种加速联邦学习训练的近似全局 Hessian 方法(FAGH),通过利用近似全局 Hessian 的曲率加速全局模型的收敛,从而减少通信轮次和训练时间,并在训练和测试损失以及测试准确率方面优于几种最先进的联邦学习训练方法。
- 分布式优化中的量化规避鞍点
分布式非凸优化的研究中,我们发现量化过程可以用于避免收敛到鞍点,通过提出一种随机量化方案,证明其可以有效地避开鞍点并确保收敛到分布式非凸优化中的二阶稳定点,实验证实了这一方法的有效性,并通过对基准数据集上的分布式优化和学习问题进行了数值实验 - FedRDMA:基于分块 RDMA 传输的交叉场所联合学习模型的通信高效化
FedRDMA 是一种在联邦学习通信协议中集成 RDMA 的通信高效型联邦学习系统,通过将更新的模型切分为块,并设计了一系列优化技术以提高基于 RDMA 的通信的效率和鲁棒性,实验结果显示,与传统的基于 TCP/IP 的联邦学习系统相比,F - 通信高效的联邦学习:一种基于事件触发的 SAGA 方法
这篇论文提出了一种多服务器联邦学习 (Confederated Learning) 框架,旨在通过去中心化协作减少通信开销,并采用随机梯度方法以线性收敛速度提高通信效率。
- 保持最优梯度稀疏化成本的可扩展分布式深度学习
ExDyna 是一种新颖的梯度稀疏化方案,通过将模型的梯度张量分为细粒度的块并将连续的块分组成不重叠的分区,实现了减少通信开销、平衡工作负载和在线阈值调整,从而提高分布式训练系统的可扩展性和稀疏化性能。
- 具有本地即时误差补偿的高效分布式学习
通过双向压缩和精心设计的补偿方法,本文提出了一种名为 LIEC-SGD 的优化算法,旨在减少分布式学习中沉重的通信开销,并在理论和实验上证明该算法在收敛速度和通信成本上优于现有方法。
- 使用无损同态压缩加速分布式深度学习
我们介绍了一种新的压缩算法,将工作节点级别的压缩与网络内聚合相结合,在不牺牲训练准确度的情况下有效提高聚合吞吐量和每次迭代的训练速度。
- 高效沟通的多模态联邦学习:联合选择模态与客户端
本文提出了一种新的多模型联邦学习方法(mmFedMC),它能够处理多模态设置中的挑战,实验结果表明该方法能够在减少通信开销的同时实现可比较的准确性。
- MMRSCNet:面向云端 WiFi 感知的动态 CSI 压缩
该论文介绍了一种名为实时感知和压缩网络(RSCNet)的新型网络,通过压缩通道状态信息(CSI)来减少通信开销,提高感知准确性。研究结果表明,RSCNet 相较于 SenseFi 等现有基准模型在感知准确性和通信成本等方面都有显著改进。
- 语音转文本任务的高效个性化联邦学习
为了保护隐私并满足法规要求,提出了一种个性化的联邦语音转文本框架,通过引入轻量级的客户端调试和服务器交互模块,以减小通信开销;并通过使用全局模型配备的 k 最近邻分类器来捕捉客户端特定的分布偏移以实现个性化,并克服数据异质性。实验证明,该方 - 基于去中心化的八卦 mutual learning (GML) 技术应用于自动头颈肿瘤分割
GML 是一种去中心化的协作学习框架,通过使用八卦协议实现直接的点对点通信并利用相互学习从同行处获取有用信息,改善了基于全局数据特性训练的模型性能,尤其在肿瘤分割任务方面,相比于基线方法(汇集训练、FedAvg 和单独训练),在特定测试样本 - 辅助车联网的分布式多目标客户端选择在联邦学习中的应用
在本研究中,我们提出了一种分布式客户选择方案,以减少所有参与者维护活动状态的成本,并通过使用模糊逻辑作为评估器实现了对最高评价客户的选举,从而在准确性上接近集中式客户选择并显著减少通信开销。
- 原型引导变换器的联邦类增量学习
PloRA 是一种简单而有效的方法,在低通信成本下解决了灾难性遗忘和数据异质性问题,在原型学习和精炼模型方面的优化使其在各种场景和程度的数据异质性中表现出强大的鲁棒性和优越性。