May, 2024
哪些特点构成视觉-语言模型的好的少样本示例?
What Makes Good Few-shot Examples for Vision-Language Models?
TL;DR在利用预先训练的视觉-语言模型进行少样本调整以应对下游任务方面取得显著进展的同时,我们的详细实证研究突出了少样本学习结果在训练样本的精心选择上具有显著的依赖性——这是以前的研究忽视了的一个方面。本研究深入探讨了更有效的少样本训练样本选择策略的制定,与依赖随机抽样不同,以增强现有的少样本提示学习方法的潜力。为了实现这一目标,我们评估了各种主动学习技术(如熵和置信度边界)在少样本训练环境中进行实例选择的有效性。此外,我们引入了两种创新的选择方法——代表性(REPRE)和高斯蒙特卡洛(Montecarlo),旨在为与预训练的视觉-语言模型相关的标注主动定位信息丰富的样本。我们的研究结果表明,REPRE和Montecarlo在少样本训练场景中显著优于随机选择和基于主动学习的策略。该研究还强调了这些实例选择方法的模型无关性,为广泛的少样本训练方法提供了灵活的增强。