ELEVATER: 一种用于评估语言增强视觉模型的基准和工具包
通过引入印尼语、汉语、斯瓦希里语、泰米尔语和土耳其语等语言,构建了一个新的ImageNet-style分层协议,从本地化的角度推荐相关概念和图像,建立了一个用于多文化及多语言视觉和语言推理的数据集MaRVL,并列举出一系列现代模型的基线,发现其跨语言性能显著滞后于英语的监督性能。
Sep, 2021
本研究介绍了一个名为VLUE的视觉语言理解评估基准,可用于评估VLP模型的泛化能力和效率-性能权衡。该基准显示了所有VLP模型在处理来自更多文化领域且未在预训练中出现的图像时存在较大的泛化差距,并且衡量VLP模型的效率-性能权衡可为设计选择提供有益见解。
May, 2022
通过构建低层视觉感知、低层视觉描述和视觉质量评估三个领域的综合基准,评估了多模式大型语言模型在低层视觉感知和理解方面的能力,并发现其具有基本的低层视觉技能,但这些技能仍不稳定和相对不精确,需要针对这些能力进行特定的增强。
Sep, 2023
通过ReForm-Eval基准测试,我们对LVLM的各种能力进行了全面的定量评估,发现并分析了现有LVLM的优点和缺点,并确定了潜在的影响因素。
Oct, 2023
本文介绍了一个名为MERLIM的多模式评估基准,用于评估IT-LVLM在基本计算机视觉任务中的表现,发现先进的IT-LVLM仍然有限于识别精细的视觉概念,对象幻觉在各种任务中普遍存在,而且结果受输入查询的细微变化的强烈偏见影响,即使查询具有相同的语义。研究结果还表明,这些模型在视觉基础上较弱,但仍然可以通过全局视觉模式或LLM组件中的文本偏见进行恰当的猜测。
Dec, 2023
通过设计基准测试,评估多模态大型语言模型 (MLLMs) 在低层次视觉感知和理解方面的能力,并将低层次视觉感知和描述的评估从单一图像扩展到图像对。研究发现,多个 MLLMs 在单一图像上表现出不错的低层次视觉能力,但只有 GPT-4V 在图像对的配对比较中表现出比单一图像评估更高的准确性(类似于人类)。希望这个基准测试能够激发进一步研究,揭示和增强 MLLMs 的新兴能力。
Feb, 2024
通过提出创新的评估方法并修正现有的视觉问答基准,我们的研究旨在推进我们对文本生成视觉语言模型能力的理解,提出了一种基于著名视觉分类数据集的新型视觉问答基准,可以对文本生成视觉语言模型进行细粒度评估,并与辨别性视觉语言模型进行比较。我们建议利用标签空间的语义层次结构为细粒度分类任务中的粗略答案提出自动生成的后续问题,以改善评估模型预测的传统自然语言处理和基于语言模型的度量标准。我们进行了人工评估研究,基于这项研究,我们决定采用最终的度量标准。我们将我们的基准应用于一套视觉语言模型,并详细比较了它们在对象、行为和属性分类方面的能力。我们的研究为更精确、有意义的评估奠定基础,促进了视觉语言建模领域的有针对性进展。
Feb, 2024
最近在指导的大型视觉语言模型方面取得的进展,使得模型能够轻松生成高层次的基于图像的解释。然而,我们的工作揭示了这些模型在细粒度的视觉分类方面的缺陷,并且我们提出了一个多粒度属性为中心的评估基准,用于评估大型视觉语言模型的细粒度视觉理解能力并提供显著改进的可解释性。
Feb, 2024
综述了大语言模型与视觉语言模型的最新进展,分析了它们在视觉能力、多模态输入和基准数据集方面的优势和局限性,并提出未来研究的潜在方向。
Feb, 2024