本综述论文研究了个性化联邦学习(PFL)的领域,着重解决异构数据带来的基本问题,通过分类和分析 PFL 技术,提出其关键挑战和机会,并展望了未来研究的发展方向。
Mar, 2021
本文提出使用自注意力机制的神经网络模型(如 Transformer),替代传统的卷积神经网络模型,以改进联邦学习中的模型性能和稳定性,尤其当处理异构数据的时候,可以大大降低模型遗忘和加快模型学习收敛速度。
Jun, 2021
提出了一种攻击机制可在 Federated Learning 中,通过恶意参数向量直接攻击文本应用程序,利用 Transformer 架构和标记嵌入技术提取标记和位置嵌入来检索高保真文本,使得历史上抵抗隐私攻击的文本 Federated Learning 变得比以前更加脆弱。
Jan, 2022
本文提出了一种新的框架 DisTrans,通过训练和测试时间的分布变换以及双输入通道模型结构来优化每个客户端的分布式偏移和模型,从而在面对不同程度的数据异质性时,提高联邦学习(FL)性能,评估结果表明,DisTrans 在多个基准数据集上的表现超越了其他现有方法。
Oct, 2022
在联邦学习中,我们利用预训练的 Transformer 和高效的提示调整策略,通过引入学习共享和组特定提示的概念,使全局模型能够自动适应各种局部客户数据分布,从而有效地弥合全局和个性化本地模型之间的差距,并超越以往无法适应之前未见客户的其他方法。
Oct, 2023
本文提供了一种简洁的介绍联邦学习的概念,并使用一个唯一的分类法来涵盖针对联邦学习的威胁模型和两个主要的攻击方法:1) 污染攻击和 2) 推理攻击,探讨了向更强大的隐私保护方向发展的有前途的未来研究方向.
Mar, 2020
提出了一种用于多标签分类的新型联邦学习框架(FedLGT),旨在解决用户异构性和标签相关性等挑战,通过在不同客户端之间传递知识来学习出稳健的全局模型,实验证明在多标签联邦学习场景下超过了标准联邦学习技术,并获得了令人满意的性能。
Dec, 2023
FedTrans 是一个多模型联邦学习训练框架,可以自动为大规模异构客户端生成和训练高准确性、硬件兼容的模型,显著提高了个体客户端模型的准确性并降低了训练成本。
Apr, 2024
联邦学习是一种有前途的研究范式,可以在各方之间进行机器学习模型的协作训练,而无需进行敏感信息交换。本研究对应用于视觉识别的联邦学习进行了广泛的回顾,强调深思熟虑的架构设计选择在实现最佳性能方面的重要作用。通过对各种先进架构的深入分析,我们实验证明了架构选择可以显著提高联邦学习系统的性能,尤其是在处理异构数据时。同时,我们研究了来自五个不同架构系列的 19 个视觉识别模型在四个具有挑战性的联邦学习数据集上的性能,重新调查了卷积架构在联邦学习环境中的劣势表现,并分析了规范化层对联邦学习性能的影响。我们的研究结果强调了在实际场景中的计算机视觉任务中架构设计的重要性,有效地缩小了联邦学习和集中学习之间的性能差距。
在视觉语言领域中,通过利用转换器架构对现有方法进行系统评估,并引入一种名为 FedCola 的新框架,填补了关于不配对的单模客户端和 FL 中转换器架构的研究空白。通过在各种 FL 设置下进行广泛实验,FedCola 展示了优于先前方法的性能,为未来多模态转换器的联邦训练提供了新的观点。