ICCVAug, 2023

视觉 - 语言少样本学习的只读提示优化

TL;DR最近几年,迅速调整在适应下游任务的预训练视觉语言模型方面已被证明是有效的。我们提出了一种新颖的方法,只读提示优化 (RPO),它利用遮罩注意力来防止预训练模型中的内部表示偏移。我们的实验结果表明,RPO 在基于新的泛化和域泛化方面优于 CLIP 和 CoCoOp,同时具有更好的鲁棒性。此外,该方法在极度数据不足的情况下实现了更好的泛化,同时改善了参数效率和计算开销。