Apr, 2024

轻量级无监督的预训练视觉语言模型联邦学习

TL;DR我们提出了一种轻量级的无监督联邦学习方法,通过利用每个客户端上的无标签数据进行轻量级模型训练和通信,从而解决监督式联邦学习中存在的挑战。该方法利用预训练的视觉 - 语言模型(例如 CLIP)的零样本预测能力和经过训练的图像编码器,通过在固定图像编码器之上训练一个线性分类器来改进无标签实例的初始零样本预测伪标签,并提出了一种用于生成特征空间中的合成实例的类平衡文本特征采样策略以解决每个客户端的数据异质性。实验证明,我们的方法大大提高了模型性能,与 CLIP 的零样本预测相比,甚至超过了有限计算和通信开销的监督式联邦学习基准方法。