LightHouse: AGI 幻觉综述
本研究通过系统回顾 14 个数据库,分析了 “AI 幻觉” 这一术语的定义,并将其按应用领域进行分类,发现使用该术语的一致性不足,提出了几个替代术语,并呼吁在涉及多个领域的重要当代 AI 问题上实现更加统一的共识。
Jan, 2024
人工智能生成内容的进化朝着更高质量的方向发展,与人工智能生成内容的不断交互给数据驱动的人工智能社区带来了新的挑战:尽管 AI 生成的内容在广泛的 AI 模型中扮演着关键角色,但它们引入的潜在风险尚未得到充分的审查。本研究突出了由 AI 合成图像引起的大型视觉语言模型中的严重幻觉现象,结果发现合成图像引起的物体幻觉特点是数量更多且位置分布更均匀,即使这些合成图像与自然图像相比没有呈现非现实或额外相关的视觉特征。此外,我们对 Q-former 和线性投影仪的研究发现,视觉投影后合成图像可能呈现令牌偏差,从而放大幻觉偏差。
Mar, 2024
研究总结了最近对大型语言模型中的幻觉现象的有趣见解,提出了一个包含各种文本生成任务中幻觉的新颖分类法,以及理论洞察、检测方法和改进方法,并提出了若干未来的研究方向。
Sep, 2023
通过原型设计、扩展和利用人类反馈对 LLMs 进行演化的三个阶段,以及本文中提出的新的数据生成模块,有助于确保生成式 AI 聊天机器人、自动报告和警报的可靠性和高质量,以支持关键的决策过程。
Nov, 2023
通过综合调查,我们分析了大型视觉语言模型(LVLMs)中的幻觉问题,以建立一个概览并为未来的缓解工作提供帮助。调查包括对 LVLMs 中幻觉的概念澄清、幻觉症状的多样性及存在的挑战、以及评估 LVLMs 幻觉的基准和方法论的概述。此外,我们深入研究了这些幻觉的根本原因,包括对训练数据和模型组件的认知。我们还对缓解幻觉的现有方法进行了批判性回顾,并讨论了关于 LVLMs 中幻觉的未解问题和未来研究方向。
Feb, 2024
本文调查了近期关于大型语言模型(LLMs)幻觉的检测、解释和缓解的努力,并着重讨论了 LLMs 所带来的独特挑战,提出了 LLM 幻觉现象的分类和评估基准,并分析了现有的缓解 LLM 幻觉方法,探讨了未来研究的潜在方向。
Sep, 2023
通过与大规模语言模型和数据集合作,本文分析了医学生成型问答系统中幻觉现象的问题,并提出了一种交互自我反思的方法来解决该挑战,最终实验证明该方法在幻觉减少方面优于基线模型。
Oct, 2023
本篇综述回顾了人工通用智能模型在医疗保健中的潜在应用,重点关注了基于大型自然语言模型、大型视觉模型和大型多模态模型的基础,强调了整合临床专业知识、领域知识和多模态能力到人工通用智能模型中的重要性,并阐述了指导医疗保健人工通用智能模型开发和部署的关键路线图,提供了有关在医疗领域部署大规模人工通用智能模型所面临的潜在挑战和风险的关键观点。该综述旨在为人工通用智能在医学影像、医疗保健及其他领域的未来可能应用提供启示。
Jun, 2023
本文介绍了建立三个独立的 LLM 模型 —— 理解、经验和事实 —— 以综合当今单一 AI 模型存在的挑战。我们通过多长度分词的思路来保护关键信息资产,最后我们使用一些最先进的现有模型进行法律幻觉的检验,并得到了一些有趣的结果。
Jun, 2023
在这份调查中,我们旨在对大型语言模型(LLM)幻像领域的最新进展进行全面而深入的概述。我们从 LLM 幻像创新分类入手,然后深入探讨了导致幻像的因素。接下来,我们全面介绍了幻像检测方法和基准。此外,我们还相应介绍了用于减轻幻像的代表性方法。最后,我们分析了突出当前限制的挑战,并制定了未来 LLM 幻像研究的开放问题,旨在描绘发展方向。
Nov, 2023