基于基础模型的联合生成学习
本文提出了一种名为 FedGen 的通用联邦学习框架,它允许客户端以协作的方式在没有训练分布的先验知识的情况下,识别和区分虚假和不变特征,与目前的联邦学习方法相比,FedGen 能够实现显著更好的泛化效果。
Nov, 2022
Federated Learning (FL) 的研究论文主要讨论了在隐私保护的协作训练中应用小型深度学习模型的新方法以及在 FL 应用中操作基于 transformer 模型的必要性,介绍了一种专注于 FL 应用中计算和通信效率方法的新的分类法,并探讨了当前广泛使用的 FL 框架的现状以及基于现有 FL 研究方法的未来研究潜力。
Jan, 2024
综合调查了联邦基础模型(FedFM)领域,阐明了其与联邦学习(FL)的协同关系,并探索了 FL 研究领域在基础模型时代需要关注的新方法、挑战和未来方向。提出了一种系统的多层次分类法,对现有的 FedFM 方法进行了分类。全面讨论了关键挑战,包括如何使 FL 处理高复杂性的计算需求、隐私考虑、贡献评估和通信效率。这项调查强调了在 FedFM 领域进行进一步研究以推动创新的重要性,强调了开发可信解决方案的需求。作为研究人员和从业者参与这个跨学科和快速发展领域的基础指南。
Apr, 2024
使用联邦迁移学习来接地基础模型是当前学术界和工业界重要的研究方向,该研究论文介绍了一个联邦迁移学习框架,对最新的研究工作进行了详细分类和综述,提供了高效和隐私保护技术,并探讨了联邦迁移学习未来的机会和研究方向。
Nov, 2023
图形联邦学习在多种场景中都有广泛的应用,需要更多的数据隐私保护。这篇研究论文提出了一种基于去中心化框架以及节点间数据相似性的图形联邦学习方法,通过线性加权聚合节点的梯度信息,实验证明该方法的有效性优于其他方法。
Jul, 2023
FedPFT 是一种使用参数特征传输的联邦学习方法,通过转移基础模型的参数模型来增强通信效率和准确性。FedPFT 在集中式和分散式联邦学习场景下的实验结果表明,在不同的数据异质性设置中,如协变量转移和任务转移,在通信准确性前沿方面提供了最高 20.6% 的改进。此外,FedPFT 遵循联邦学习中的数据最小化原则,并通过差分隐私提供了有利的隐私准确性权衡。
Feb, 2024
本文探讨了基础模型和联邦学习之间的相互作用,旨在深化其协同作用的理解并挖掘这两个领域的潜力,鼓励未来的研究方向,以进一步提高隐私保护和可伸缩性的人工智能系统的发展。
Jun, 2023