领域感知联邦学习的双提示调优
提出一种新的基于联邦学习的多目标领域自适应算法,通过对模型性能的分析,发现现有领域自适应方法在面对该问题时存在的问题,并提出一种有效的 DualAdapt 方法来解决这些问题。在图像分类和语义分割任务上的大量实验结果表明,我们的方法在客户端设备上实现高准确度,最小通信成本和所需计算资源低。
Aug, 2021
本文研究了如何有效地在联邦学习中使用预训练Transformer模型及其微调方法,实验结果表明,微调模型的偏置项是最好的策略,并且使用视觉-语言模型会比纯视觉模型的性能更好,且能提高模型精度并减少过拟合问题。
Nov, 2022
该论文介绍了一种名为Federated Black-box Prompt Tuning (FedBPT)的框架,通过优化提示语并利用无梯度的优化方法,实现了在保护隐私的前提下,减少模型参数交互、提升通信效率、降低计算和存储成本,从而有效地进行预训练语言模型的细调。
Oct, 2023
联邦学习经常受到通信开销问题的阻碍。为了解决这个问题,我们提出了双提示联邦学习(TPFL),它整合了视觉和文本模态以更全面地描绘本地客户端数据特征。此外,为了应对数据异质性问题,我们引入了增强型TPFL(ATPFL),并采用对比学习技术,不仅增强了客户端模型的全局知识获取能力,还促进了稳健、紧凑模型的发展。我们的详尽评估结果表明,TPFL和ATPFL相比于所有基准模型始终表现出更优异的性能。
Oct, 2023
FedPepTAO是一种参数高效的提示调优方法,采用自适应优化来实现高效且有效的大语言模型的联邦学习,通过改进性能和效率的同时解决设备和服务器端的客户漂移问题。
Oct, 2023
在联邦学习中,我们利用预训练的Transformer和高效的提示调整策略,通过引入学习共享和组特定提示的概念,使全局模型能够自动适应各种局部客户数据分布,从而有效地弥合全局和个性化本地模型之间的差距,并超越以往无法适应之前未见客户的其他方法。
Oct, 2023
通过使用最优传输,我们提出了联邦化的提示协作方法(FedOTP),该方法采用高效的合作提示学习策略,以在每个客户端上捕获多样的类别特征,从而在数据异构性方面优于现有方法。
Feb, 2024
通过学习自适应提示,采用分布式学习的方式,提出了一种高效而新颖的方法 DiPrompT,解决了现有联邦学习方法中对域标签的限制问题,实现了优秀的域泛化性能和超越中心化学习方法的结果。
Mar, 2024
通过使用预先训练的视觉语言模型(VLM)调整提示,联邦提示学习(FPL)将大规模预训练的视觉语言模型(VLM)整合到联邦学习中,以达到在个性化和泛化之间取得平衡的目标。
May, 2024
本研究针对现有的提示学习在联邦学习中的理论分析不足问题,构建了一个基于特征学习理论的分析框架,监测提示学习中的信号学习与噪声记忆的演变。通过将投资组合优化中的收入与风险比作特征学习中的任务相关与无关项,我们提出了全球提示和本地提示的组合策略,展示了提示组合在提升模型泛化与个性化方面的显著优势。
Sep, 2024