基于 LMM 的知识在图像分类任务中的利用
我们提出了一种新的方法来从长描述中密集地连接视觉实体,利用大型多模态模型提取语义名词,利用无类别分割模型生成实体级分割,采用多模态特征融合模块将每个语义名词与其对应的分割蒙版关联。此方法利用颜色映射对实体分割蒙版进行编码,使得细粒度预测能够保留高分辨率蒙版的特征。该方法使用 LMM 中的 CLIP 视觉编码器从低分辨率图像中提取视觉特征,比使用额外编码器处理高分辨率图像的现有方法在计算上更高效。我们的全面实验表明,我们的方法卓越于三个任务,包括全景叙事连接、指称表达分割和全景分割。
Feb, 2024
提出了一种新的多模态训练范式,用于编码视觉皮层中的 fMRI 活动。使用预训练的 LLM 和对比损失函数完成图像和文本信息的对齐,提高了视觉编码模型的性能。
Jan, 2024
这篇论文提出了一种通过专家混合知识增强机制来改善多模态大型语言模型 (MLLMs) 的视觉感知能力的方法,并通过集成视觉专家实现了视觉输入的更全面准确的概括,进一步提升了 MLLMs 的视觉感知能力。
Jan, 2024
通过 DEEPEVAL 评估,本研究发现现有的大型多模态模型对深度语义的理解能力与人类存在明显差距,尽管在图像描述方面达到了与人类相媲美的性能。进一步分析表明,推理过程中结合描述文本可以显著增强大型多模态模型对深度语义的感知能力。
Feb, 2024
使用多模态大语言模型 (Multimodal LLMs) 的简单且有效方法实现了零样本图像分类,通过生成全面的文本表示从而在交叉模态嵌入空间中生成固定维度特征,在线性分类器上融合这些特征以进行分类,取得了令人瞩目的效果。
May, 2024
通过分析最新的模型 GPT-4V,我们深入了解大型多模态模型(LMMs)的能力和特点,发现 GPT-4V 具有处理多种输入、具有广泛通用性的能力,以及通过理解图像上的视觉标记可以创造出新的人机交互方式。我们期望这项初步探索能够激发对下一代多模态任务形式、利用和增强 LMMs 以解决实际问题以及对多模态基础模型有更好理解的未来研究方向的启发。
Sep, 2023
本研究探讨使用大型语言模型作为文本编码器,在文本到图像生成中提高语言理解能力,并提出了一种高效三阶段训练流程以整合已有的文本到图像模型和大型语言模型,通过轻量级适配器实现快速训练,并证明实验结果在多语言和长输入环境下获得了优秀的图像生成质量。
May, 2024
本文介绍了 MiniGPT-4 模型,该模型利用像 GPT-4 这样的先进的大型语言模型(LLM)与视觉编码器对齐,可以生成详细的图像描述和从手写草图中创建网站等多重能力,采用对齐的图文数据集训练可以提高生成的可靠性和整体可用性。
Apr, 2023
本研究提出了一种新的方法来增强多模式大型语言模型的可解释性,通过专注于图像嵌入组件。我们将开放世界定位模型与多模式大型语言模型相结合,从而创建一个能够同时产生文本和物体定位输出的新架构。提出的架构极大地促进了可解释性,使我们能够设计一种新的显著性图以解释任何输出标记,识别模型幻觉,并通过语义对抗扰动评估模型的偏见。
May, 2024
使用一种新颖的生成方法,我们对大型视觉语言模型(如 GPT-4)进行控制,以描述图像并进行组合推理,在 Winoground 数据集上优于其他嵌入式方法,并在最佳描述的增强下获得最高 10% 的准确率改进。
Jan, 2024