Aug, 2023
ReCLIP:使用源域自适应提炼对比语言图像预训练
ReCLIP: Refine Contrastive Language Image Pre-Training with Source Free Domain Adaptation
Hu. Xuefeng, Zhang. Ke, Xia. Lu, Chen. Albert, Luo. Jiajia...
TL;DR通过提出 ReCLIP 方法,第一个无需源数据或目标标记数据的视觉 - 语言模型领域自适应方法,该方法使用伪标签进行交叉模态自训练以减小领域间差异和错位对模型性能的影响,在 22 个图像分类基准测试中将 CLIP 的平均错误率从 30.17% 降低到 25.06%。