利用基础模型改进联邦学习中的轻量级客户端
Federated Learning (FL) 的研究论文主要讨论了在隐私保护的协作训练中应用小型深度学习模型的新方法以及在 FL 应用中操作基于 transformer 模型的必要性,介绍了一种专注于 FL 应用中计算和通信效率方法的新的分类法,并探讨了当前广泛使用的 FL 框架的现状以及基于现有 FL 研究方法的未来研究潜力。
Jan, 2024
综合调查了联邦基础模型(FedFM)领域,阐明了其与联邦学习(FL)的协同关系,并探索了 FL 研究领域在基础模型时代需要关注的新方法、挑战和未来方向。提出了一种系统的多层次分类法,对现有的 FedFM 方法进行了分类。全面讨论了关键挑战,包括如何使 FL 处理高复杂性的计算需求、隐私考虑、贡献评估和通信效率。这项调查强调了在 FedFM 领域进行进一步研究以推动创新的重要性,强调了开发可信解决方案的需求。作为研究人员和从业者参与这个跨学科和快速发展领域的基础指南。
Apr, 2024
该论文提出了一种基于原型的联邦学习框架,通过在典型的联邦学习进程的最后全局迭代中进行少量更改就能够实现更好的推理性能,从而在两个基准数据集上实现了更高的准确性和相对高效的通信。
Mar, 2023
本文提出了一种轻量级框架,使客户端通过融合多个预训练模型生成的表示而不是从头开始训练大规模模型来共同学习;我们设计了一种基于原型的对比学习(FedPCL)方法,以原型为共享信息进行知识传递,从而提高各个客户端利用现有模型的能力并保持通信效率。
Sep, 2022
该研究提出了一种名为 InclusiveFL 的客户端包含的联邦学习方法,解决异构设备下的全局模型训练问题,并通过在不同大小的本地模型之间共享知识和动量知识蒸馏方法来实现客户端之间的模型学习和知识迁移,实验表明该方法在联邦学习框架下从客户异构设备中学习准确模型方面具有很好的效果。
Feb, 2022
在研究中,发现当将现有的联邦学习框架应用于更深的神经网络时,性能会显著下降,主要原因是由于在层间反向传播过程中不同客户端模型之间的不一致性逐步积累,称为 “发散累积”,提出了减少发散的技术指南,如使用更宽的模型和减少接受场,这些方法可以大大提高联邦学习在更深层次上的准确性。
Jun, 2023
利用优化的无服务器工作流程,在 FaaS 环境下实现基于知识蒸馏的异构客户端模型的联邦学习(FL)系统,实验证明无服务器 FedDF 比无服务器 FedMD 更快、成本更低且对极端非独立同分布数据分布更加鲁棒。
Feb, 2024
本文介绍了一种新颖的问题:在联合学习场景下,如何面对数据有限的客户端。为了解决数据分布和本地数据不足等问题,提出了联合少样本学习框架,并进行了大量实验,证明了该框架的有效性。
Jun, 2023