CVPRApr, 2024

AMU-Tuning:基于 CLIP 的有效逻辑偏置用于少样本学习

TL;DR近期,预训练的视觉 - 语言模型(如 CLIP)在少样本学习方面表现出巨大潜力并吸引了很多研究兴趣。本文通过分析 logit 偏差,从统一的角度分析了基于 CLIP 的少样本学习方法,提出了一种新的 AMU-Tuning 方法来学习有效的 logit 偏差,展现出了 CLIP-based 少样本学习的最先进性能。