我们提出了一种新型的个性化联邦学习框架 pFedPG,通过在服务器上学习部署个性化提示生成器,生成适应本地数据分布的特定于客户端的视觉提示,以实现从大规模模型中获取强大表示能力同时为异构客户端实现高效个性化模型优化。
Aug, 2023
通过提出联合文本驱动的提示生成 (FedTPG) 方法,在多个远程客户端上学习统一的提示生成网络,从而解决了现有提示学习技术在泛化到未知类别方面的挑战,实现了针对已见和未见类别的更好泛化,并且对未见数据集也具有泛化能力。
Oct, 2023
个性化联邦连续学习是一个新的实际场景,对于知识的共享和个性化提出了挑战。我们提出了一种多粒度提示的方法,通过协同模型学习获得粗粒度全局提示,用于高效传输共享的全局知识,并通过细粒度的本地提示个性化学习以克服时序遗忘。我们还设计了一种选择性提示融合机制,通过独特的粗粒度知识融合实现了共享知识的传输和提炼,从而提高了个性化性能。实验结果表明,我们的方法在解决空时遗忘和改善个性化性能方面是有效的。
Jun, 2024
通过概念引导提示学习的方式,CPL 方法显著提高了通用化性能。
Jan, 2024
本文提出了一种名为 FedCLIP 的有效且简单的方法,通过为大型模型 CLIP 设计一个基于注意力的适配器,其余操作仅依赖于适配器,从而实现了联邦学习中 CLIP 的快速归纳和个性化。实验表明,FedCLIP 在计算和通信成本方面显着优于其他基线。
Feb, 2023
我们提出了一种新颖的基于提示的个性化联邦学习(pFL)方法,以解决传统医学视觉问答(VQA)方法中的数据异质性和隐私问题。具体而言,我们将来自不同器官的医学数据集视为客户,并使用 pFL 为每个客户训练个性化的基于 Transformer 的 VQA 模型。为了解决以前的 pFL 方法中客户间通信的高计算复杂性,我们提出了一个简洁的信息共享系统,通过引入小的可学习参数提示。此外,所提出的方法引入了一个可靠性参数,以防止低性能和不相关客户的负面影响。最后,对各种异构医学数据集进行了广泛评估,证明了我们提出的方法的有效性。
Feb, 2024
本文提供了一种名为 FedPrompt 的新方法,将 prompt tuning 和 federated learning (FL) 相结合,以在保护数据隐私的同时提高 FL 方法的效率。该方法在传统方法的基础上使用模型拆解聚合的方式来使用 prompt tuning,证明了这种方法减小了大量的通信成本,同时在 IID 和 Non-IID 数据分布上保证准确性,并且在实验中进一步证明了该方法的可靠性。
Aug, 2022
本文提出一种叫做上下文提示学习的框架,用于多模态学习中训练可对齐图像本地化特征并且能够适应当前任务的动态提示,通过应用于多个标准和少样本数据集上展示了比现有技术方法更优越的性能和强大的适用性。
Jul, 2023
该研究提出了一种基于知识图谱的鲁棒提示学习方法(RPLKG),旨在提高小样本学习的泛化性能。RPLKG 具有可解释性,需要较小的计算资源,易于融合先前的人类知识。
Apr, 2023
采用 CLIP 指导的联合学习(CLIP2FL)方法在异构和长尾数据上进行了研究,通过使用 CLIP 模型的知识转移,构建客户端和服务器之间的桥梁,改善了客户端特征表示能力,生成联合特征以重新训练服务器模型,以减轻用户异构性和类分布不平衡问题。
Dec, 2023