好问题促进零射影像推理
通过生成推理问题提示,为零样本情景中的大型语言模型在零样本视觉问答任务中的问题回答问题选择和生成保持完整性、语义合理性和句法不变性,从而显著提高了大型语言模型在零样本情景中的性能。
Nov, 2023
通过添加视觉相关信息作为预先说明以减少不确定性,并改变提问方式以提高模型性能,在图像问答任务中,使用 RepARe 框架可以显著提高零样本性能,并通过对输出进行深入分析,展示了如何提高句法复杂性并有效利用 LVLMs 中的视觉 - 语言交互和冻结语言模型。
Oct, 2023
通过利用两种互补的 “想象力”(检索已有图像和通过文本到图像生成合成不存在的图像),我们开发了一种新颖的方法 Z-LaVI,为语言模型赋予了视觉想象能力,从而解决了大规模预训练语言模型的报告偏差问题,提高了跨多个语言任务的零 - shot 性能。
Oct, 2022
Q-ViD 是一种简单的视频问答方法,通过使用一个单一的指令感知开放式视觉语言模型(InstructBLIP)来处理视频问答问题,生成视频帧描述,并结合一个大型语言模型(LLM)进行多项选择问答,取得了与当前最先进模型相媲美甚至更高的性能。
Feb, 2024
通过在视觉问题回答(VQA)过程中利用图像描述作为中介步骤,建立零样本设置,探索了零样本 VQA 的影响。比较了最先进的图像描述模型对于不同问题类型的 VQA 性能在结构和语义上的影响,并在 VQA 过程中提出了一种简单高效的问题驱动图像描述方法,通过提取问题关键词、为每个图像 - 问题对生成描述,并将问题驱动的描述传输到大型语言模型中。研究发现利用图像描述和大型语言模型的能力,在零样本设置下能够实现竞争性的 GQA 性能。
Apr, 2024
本论文提出了一个可解释的多智能体协作框架,通过利用在广泛语料库上训练的大型语言模型中嵌入的知识,以人类认知为灵感,使用三个智能体,即探索者、回答者和整合者,进行自顶向下推理过程,从而明确地构建特定图像场景的多视图知识库,以自顶向下的处理方式推理答案。我们在多样化的视觉问答数据集和视觉语言模型上对我们的方法进行了广泛评估,并通过全面的实验结果证明了其广泛的适用性和可解释性。
Nov, 2023
QA-ViT 是一种用于多模态推理的问题感知视觉 Transformer 方法,通过将问题感知能力直接嵌入到视觉编码器中,实现动态视觉特征,并且可以有效地应用于各种多模态架构,提高对视觉和场景文本的理解能力。
Feb, 2024
提出了 Img2Prompt 模块,它可以提供可以描述图像内容和自构建问题答案对的提示,并且能够帮助 LLMs 执行无需端到端训练的零射击 VQA 任务。
Dec, 2022