BLIVA:一个简单的多模态 LLM 用于更好地处理文本丰富的视觉问题
对于图像中的问题,通过使用语言指导(LG)如解释、图像标题、场景图等方面的共识知识、世界知识和理解创意和概念来回答问题更准确;提出了一种多模态框架,使用 CLIP 和 BLIP 模型通过 A-OKVQA、Science-QA、VSR 和 IconQA 数据集的多选问题回答任务进行了基准测试,语言指导使得 CLIP 的性能提高了 7.6%,BLIP-2 的性能提高了 4.8%;使用所提出的语言指导在 Science-QA、VSR 和 IconQA 数据集上也观察到了持续的性能改进。
Oct, 2023
通过引入视觉语义,将大规模的视觉 - 语言模型 (LVLMs) 融合到多模态对话中,Ziya-VL 在英语和汉语多模态场景中展现出了具有竞争力的图片 - 文本生成和理解能力。
Oct, 2023
使用大型语言模型和多模态语言模型,我们开发了一种方法将特定领域的视觉和视觉 - 语言数据集转化为统一的问答格式,从而扩展了多模态语言模型用于特定领域任务,实验结果表明该方法在特定领域的视觉任务和视觉 - 语言任务上达到了高分数指标并保持了多任务的性能。
Feb, 2024
基于文本识别的图像视觉问答是一个跨模态任务,需要图像理解和文本识别。本文研究了基于 LLM 方法在解决此问题时的优势和瓶颈,并通过整合 OCR 模块和 MLLM 发现多数 MLLM 可以理解 OCR 信息,为训练保留 LLM 能力提供了启示。
Nov, 2023
通过系统评估,本研究首次证明了在训练数据的两两复杂性增加时,标准视觉语言模型在学习图像区域与文本属性之间的细粒度关系方面存在性能下降问题,为了解决这个问题,研究引入了 ViLLA,通过两个组件(自监督映射模型和对比视觉语言模型)来训练捕捉复杂数据集中图像区域与文本属性的细粒度关系,实验证明 ViLLA 在细粒度推理任务(如零样本目标检测和检索)上表现优于其他视觉语言模型。
Aug, 2023
通过利用机器翻译产生多语言数据来实现对预训练的多语言 LLM 的图像编码器的重新对准,从而在消费者硬件上使用少量训练数据来获得第一款多语言 Vision-LLM,与从头开始训练的大规模 Vision-LLM 相比表现出色。
Jul, 2023
该文章介绍了一种基于多模式提示的创新图像质量评估方法,通过精心设计的提示,从视觉和语言数据中挖掘增量语义信息,在不同数据集上展现出竞争性能,达到了鲁棒性和准确性的提升。
Apr, 2024
本文提出了一种利用 PubMed Central 数据集中的图面注释数据、GPT-4 生成提问数据和新型课程学习方法一起训练的大型语言与视觉助手 (LLaVA-Med),该助手能回答有关生物医学图像的开放性研究问题,并在标准的生物医学视觉问答数据集上表现出优异的多模态会话能力。
Jun, 2023
近期,大型多模态模型在视觉任务中表现出前所未有的精确性,尤其对于帮助盲人或视障人士提供准确答案至关重要,而模型的校准和不确定性量化对于有选择性地回答问题或请求澄清非常重要。我们对在上下文学习的多模态模型上进行 VQA 校准方法和度量的深入分析,研究了两个回答能力基准测试中的 VQA,结果显示,对于上下文学习来说,视觉模型的可能性得分比其纯文本模型更为校准,尽管基于采样的方法通常更优,但没有明确的赢家。我们提出了 Avg BLEU,这是一种结合了两种模式的采样和可能性方法优点的校准评分。
Jun, 2024
X-VILA 是一种全模式模型,通过结合图像、视频和音频模态来扩展大型语言模型(LLMs)的能力,实现跨模态的理解、推理和生成。在此基础上,通过一个有效的交错的任意 - 任意模态指令跟踪数据集以及一种视觉嵌入高速公路模块,解决了当前交叉模态对齐方法中的视觉信息丢失问题,从而在任意 - 任意模态对话方面表现出了比以前方法更高的效率。
May, 2024