PuzzleVQA: 通过抽象视觉模式诊断语言模型的多模态推理挑战
这篇论文介绍了一项新颖的任务,即多模式拼图解决,其框架是视觉问题回答。我们提出了一个名为 AlgoPuzzleVQA 的新数据集,旨在挑战和评估多模态语言模型在解决需要视觉理解、语言理解和复杂算法推理的算法拼图中的能力。我们的研究表明,GPT4V 和 Gemini 等大型语言模型在拼图解决任务中表现有限,对于大量拼图的多选题回答设置,它们的性能接近随机。这些发现突出了整合视觉、语言和算法知识以解决复杂推理问题的挑战。
Mar, 2024
NLP 模型通过在视觉推理任务上的测试,评估了多语言、多模态方面的能力。通过分析模型的失败,提出了三个针对性干预措施,包括翻译 - 测试方法、视觉编程方法和利用图像字幕处理多模态问题。这些干预措施在零 - shot 设置下提高了 open model LLaVA 13.4% 的性能,并稍微改善了 GPT-4V 的性能。
Mar, 2024
最近,GPT-4 语言模型与视觉能力相结合,我们对 GPT-4V 和其他五个基准模型进行了提示评估,包括数学推理、视觉数据分析和代码生成等结构化推理任务。我们发现视觉的 Chain-of-Thought,在多模态 LLMs 上的扩展,在基准模型上取得了显著的改进。我们还对这些模型表现良好和困难的情景进行了分类分析,突出了一致性多模态推理所面临的挑战。
Dec, 2023
通过 Raven's Progressive Matrices 的变种,评估开源和闭源的多模态大型语言模型(MLLMs)的非语言抽象推理能力,发现了解决这类问题的困难以及开源和闭源模型之间巨大的差距,并揭示了个别视觉模块和文本模块的关键缺陷,最后通过 Chain-of-Thought 提示等方法,以显著提升模型性能(最高达 100%)。
Jan, 2024
大型语言模型对计算机教育产生了重大影响,研究表明,这些模型能够比学生提供更好的解释,回答多项选择题高于平均水平,并生成能够通过入门课程中的自动化测试的代码。然而,仅仅转向视觉编程问题可能不足以解决在生成 AI 时代的学术诚信问题。
Nov, 2023
多模式大型语言模型在感知和解释任务中显示出巨大潜力,但其在预测推理方面的能力尚未得到充分探索。为填补这一空白,我们引入了一个新颖的基准测试,评估多模式大型语言模型在不同情境下的预测推理能力。我们的基准测试针对三个重要领域:抽象模式推理、人类活动预测和物理交互预测。我们进一步开发了三种由大型语言模型驱动的评估方法,以稳健地量化模型在基于多模态上下文的预测和推理未来方面的性能。经验实验证实了所提出的基准测试和评估方法的合理性,并通过严格测试揭示了当前流行的多模式大型语言模型在预测推理任务中的优缺点。最后,我们提出的基准测试为多模式大型语言模型提供了一个标准化的评估框架,并可以促进开发能够在复杂的长序列多模态输入上进行推理和预测的更先进的模型的发展。
Oct, 2023
本文提出了一种非单调计算方法来解决视觉抽象推理任务,使用 RAVEN 数据集进行测试,并与现有单调深度学习模型进行比较,结果表明,该方法比现有单调深度学习模型更加有效。
Feb, 2023
该论文通过高分辨率的文本图像生成技术,开发了一种针对多模态推理任务的评估数据生成框架,并使用此框架生成了一种复杂且缺乏数据集支持的任务的合成数据集,以进行性能测试。研究发现,在这项任务上,最先进的视觉问答模型的性能明显低于标准 VQA 任务。
Jun, 2023
通过从三个角度对 GPT-4V 进行深入评估,即常识知识、细粒度世界知识和具有决策理由的综合知识,我们发现 GPT-4V 在这三项任务上均取得了最好的性能,并且在使用复合图像进行少样本学习时具有增强的推理和解释能力,但在处理世界知识时可能导致严重的错觉,未来仍需要在这个研究方向上进行改进。
Nov, 2023