Nov, 2023
跟进性差异描述:语言模型消除图像分类中的歧义
Follow-Up Differential Descriptions: Language Models Resolve Ambiguities
for Image Classification
TL;DR一种提高图像分类的视觉语言模型(如CLIP)性能的有希望方法是通过扩展类别描述(即提示)与相关属性结合,通过使用棕色麻雀代替麻雀等方式。然而,当前的零样本方法无论目标类别之间的共同点如何,仍然会选择一组属性,可能提供了无法区分它们的有用信息。我们提出了一种名为Follow-up Differential Descriptions(FuDD)的零样本方法,该方法为每个数据集量身定制类别描述,并生成更好区分目标类别的新属性。在实验中,FuDD在12个数据集上始终优于通用描述集合和朴素的LLM生成描述,表明不同描述是解决类别模糊的有效工具,否则会显著降低性能。我们还展示了FuDD生成的高质量自然语言类别描述与少样本适应方法在性能上有可比性。