Oct, 2023

用尴尬简单的排列愚弄您的(视觉和)语言模型

TL;DR大语言和视觉语言模型广泛应用于实践中,但由于它们在遵循指令、上下文学习等方面的令人印象深刻的能力,迫切需要仔细分析它们的鲁棒性,以便利益相关者了解这些模型在任何特定应用中是否足够可靠。本文重点介绍了流行模型中的一个特定漏洞,即多项选择题回答中的置换敏感性问题。具体而言,我们实证地表明流行模型在多项选择提示的答案集的对抗置换方面存在漏洞,这是令人惊讶的,因为模型应该和人类一样对提示的置换不变。这些漏洞在各种模型尺寸中仍然存在,并存在于最近的语言和视觉语言模型中。代码可在 https://github.com/ys-zong/FoolyourVLLMs 找到。