Aug, 2024
Hallu-PI:在扰动输入下评估多模态大型语言模型的幻觉
Hallu-PI: Evaluating Hallucination in Multi-modal Large Language Models
within Perturbed Inputs
TL;DR本研究针对多模态大型语言模型(MLLMs)在扰动输入下产生不一致内容的问题,提出了第一个专门评估此类幻觉的基准Hallu-PI。我们的实验表明,这些模型在面对扰动输入时的幻觉现象显著,揭示了MLLMs在处理不同类型幻觉时的严重偏差,从而为后续研究提供了新的方向。