该论文提出了一种基于最优输送的个性化联邦学习方案(FedOT),该方案利用最优输送映射将数据点转换到公共分布,并在应用传输映射时学习预测模型,可有效解决联邦学习中异构数据分布的问题。
Jun, 2022
这篇文章提出了一种利用 optimal transport 算法将视觉与文本模态进行匹配的方法,在此基础上学习出多种全面的 prompt,优化输入图像的分类效果,两阶段优化策略取得了很好的效果。
Oct, 2022
通过提出联合文本驱动的提示生成 (FedTPG) 方法,在多个远程客户端上学习统一的提示生成网络,从而解决了现有提示学习技术在泛化到未知类别方面的挑战,实现了针对已见和未见类别的更好泛化,并且对未见数据集也具有泛化能力。
Oct, 2023
我们提出了一种新型的个性化联邦学习框架 pFedPG,通过在服务器上学习部署个性化提示生成器,生成适应本地数据分布的特定于客户端的视觉提示,以实现从大规模模型中获取强大表示能力同时为异构客户端实现高效个性化模型优化。
Aug, 2023
联邦学习经常受到通信开销问题的阻碍。为了解决这个问题,我们提出了双提示联邦学习(TPFL),它整合了视觉和文本模态以更全面地描绘本地客户端数据特征。此外,为了应对数据异质性问题,我们引入了增强型 TPFL(ATPFL),并采用对比学习技术,不仅增强了客户端模型的全局知识获取能力,还促进了稳健、紧凑模型的发展。我们的详尽评估结果表明,TPFL 和 ATPFL 相比于所有基准模型始终表现出更优异的性能。
本论文介绍了一种新颖的少样本学习中的时间动作定位 (TAL) 方法,通过在实际视频中泛化不同情境的能力来解决常规单提示学习方法存在的过拟合问题。采用多提示学习框架,增强了每个动作的一组多样化提示,更有效地捕捉通用特征并减少过拟合风险。此外,利用最优输运理论,高效地将这些提示与动作特征对齐,优化了适应视频数据多方面特性的综合表示。实验证明了我们提出的多提示最优输运方法在 THUMOS-14 和 EpicKitchens100 的标准数据集上能够显著提高少样本 TAL 方法的定位准确性和鲁棒性,突出了其有效性。
Mar, 2024
在联邦学习中,我们利用预训练的 Transformer 和高效的提示调整策略,通过引入学习共享和组特定提示的概念,使全局模型能够自动适应各种局部客户数据分布,从而有效地弥合全局和个性化本地模型之间的差距,并超越以往无法适应之前未见客户的其他方法。
本研究介绍了一种名为 Federated Dual Prompt Tuning (Fed-DPT) 的新方法,利用预训练的视觉 - 语言模型并应用视觉和文本提示调整来解决领域移位问题,并通过实验证明了其在领域感知的联邦学习中的重要有效性。
通过使用预先训练的视觉语言模型(VLM)调整提示,联邦提示学习(FPL)将大规模预训练的视觉语言模型(VLM)整合到联邦学习中,以达到在个性化和泛化之间取得平衡的目标。
May, 2024
全球局部提示(GalLoP)是一种新的提示学习方法,通过学习多种多样的提示,利用全局和局部视觉特征,以提高视觉 - 语言模型在少样本图像分类中的准确性和鲁棒性。在不同的少样本设置和各种背景下,GalLoP 在准确性方面优于以前的提示学习方法,并且在域泛化和 OOD 检测方面表现出强大的鲁棒性,甚至优于专门的 OOD 检测方法。
Jul, 2024