调查与缓解预训练视觉语言(CLIP)模型中的物体幻觉
该论文系统研究了视觉语言预训练模型中对象幻觉问题,从近期最先进的VLP模型,VLP中不同类型的图像编码方式,以及VLP目标的不同方面入手,提出了一种名为ObjMLM的简单而有效的VLP损失,能够减少对象幻觉。实验表明,ObjMLM可以将对象幻觉降低多达17.4%。
Oct, 2022
通过对大型视觉语言模型的系统研究,本论文发现大型视觉语言模型容易出现物体幻影问题,并探讨了视觉指导对幻觉的影响,提出了一种改进的评估方法POPE,以更稳定和灵活的方式评估物体幻影问题。
May, 2023
通过引入更详细的视觉注释和更具区分性的视觉模型来提高大型视觉语言模型的训练,使其能够生成更精确的回答,减少幻觉;此外,提出了新的评估基准 RAH-Bench 分为三种不同的幻觉类型,与原始 LLaVA 相比,我们的方法在该基准下实现了 +8.4% 的改进,并在其他模型上取得了广泛的性能提升。
Nov, 2023
大视觉语言模型(LVLMs)通过视觉识别和语言理解相结合,生成连贯且与上下文相关的内容,但仍然存在物体幻觉问题。本文介绍一种名为Visual Contrastive Decoding(VCD)的简单且无需训练的方法,通过对比原始和失真的视觉输入产生的输出分布,有效降低统计偏差和单模式先验产生物体幻觉的影响,确保生成的内容与视觉输入密切相关,从而产生上下文准确的输出。实验证明,VCD不需要额外的训练或使用外部工具,在不同的LVLM族群中显著减轻了物体幻觉问题。除减轻物体幻觉问题外,VCD在通用LVLM基准测试中也表现出色,展示了其广泛的适用性。
Nov, 2023
通过综合调查,我们分析了大型视觉语言模型(LVLMs)中的幻觉问题,以建立一个概览并为未来的缓解工作提供帮助。调查包括对LVLMs中幻觉的概念澄清、幻觉症状的多样性及存在的挑战、以及评估LVLMs幻觉的基准和方法论的概述。此外,我们深入研究了这些幻觉的根本原因,包括对训练数据和模型组件的认知。我们还对缓解幻觉的现有方法进行了批判性回顾,并讨论了关于LVLMs中幻觉的未解问题和未来研究方向。
Feb, 2024
大规模视觉语言模型容易出现对象幻觉问题,本文提出了使用CLIP引导解码的方法来减少对象幻觉,通过增强生成文本与图像之间的视觉联系,有效缓解了多个视觉语言模型家族中的对象幻觉问题,并且保持了文本生成的实用性。
Feb, 2024
本研究解决了大型视觉语言模型(LVLM)在真实应用中频繁产生幻觉的问题。提出的CLIP-DPO方法利用对比预训练的视觉语言嵌入模型,通过优化偏好来显著减少幻觉现象且无需依赖付费API或额外训练数据。研究结果表明,该方法在减少幻觉和提升零-shot分类性能方面取得了重要进展,并保持了原有的基准性能。
Aug, 2024
本研究解决了视觉语言模型(VLMs)中长期存在的幻觉问题,提出了一种通过线性正交化图像特征与幻觉对象特征的方法。研究表明,针对模型潜在表示进行有针对性的编辑,可以在保持性能的同时,将幻觉减少多达25.7%。该工作深入理解了VLMs的潜在表示,提升了可靠性并启用了新能力,如零-shot分割。
Oct, 2024
本研究解决了大规模视觉语言模型(LVLMs)中对象幻觉的问题,强调了现有研究对视觉输入理解不足的片面性,忽视了模型在特征提取和解耦方面的根本缺陷。我们提出了一种新的调优策略PATCH,通过自适应虚拟标记有效提取对象特征,显著提升多个多模态幻觉数据集的表现,旨在提供对LVLMs中幻觉原因的更深刻理解。
Oct, 2024
本研究解决了大型视觉-语言模型(LVLM)在生成基于视觉输入的响应时容易出现幻觉的问题。通过引入摘要引导解码(SGD)方法,研究表明该方法能够有效减少模型对语言先验的依赖,显著提升图像信息的利用率,并在对象幻觉基准测试中取得了最先进的表现,展现出更好的精确度与召回率平衡。
Oct, 2024