Aug, 2023

ReCLIP:使用源域自适应提炼对比语言图像预训练

TL;DR通过提出ReCLIP方法,第一个无需源数据或目标标记数据的视觉-语言模型领域自适应方法,该方法使用伪标签进行交叉模态自训练以减小领域间差异和错位对模型性能的影响,在22个图像分类基准测试中将CLIP的平均错误率从30.17%降低到25.06%。