Aug, 2024

Hallu-PI:在扰动输入下评估多模态大型语言模型的幻觉

TL;DR本研究针对多模态大型语言模型(MLLMs)在扰动输入下产生不一致内容的问题,提出了第一个专门评估此类幻觉的基准Hallu-PI。我们的实验表明,这些模型在面对扰动输入时的幻觉现象显著,揭示了MLLMs在处理不同类型幻觉时的严重偏差,从而为后续研究提供了新的方向。