金融决策者无幻化生成人工智能解决方案的旅程
本文阐述了人工智能幻觉的根本原因及其在人工智能中的重要意义,并就幻觉分类进行了研究,包括机器翻译、问答系统、对话系统、摘要系统、基于大语言模型的知识图谱以及视觉问答等多个任务。同时,本研究探讨了缓解幻觉的潜在策略,旨在提高大语言模型的整体可靠性。该研究属于 HeReFaNMi(Health-Related Fake News Mitigation)项目的一部分,该项目得到 NGI Search 的慷慨支持,旨在抑制互联网上健康相关虚假新闻的传播,致力于在不断演进的人工智能技术时代保护信息传播的完整性。
Nov, 2023
通过利用 Langchain 框架将数据表转化为分层文本数据块,本研究提出了一种新颖的方法来解决数据表重型领域(如金融决策)中的自动问答问题,实现针对各种用户查询生成定制化的语言模型提示,并在幻觉和响应置信度方面进行了多度量标评估。该系统在用户查询响应方面取得了超过 90% 的置信度,并可应用于其他分析领域以确保最佳幻觉控制保障。
Nov, 2023
通过与大规模语言模型和数据集合作,本文分析了医学生成型问答系统中幻觉现象的问题,并提出了一种交互自我反思的方法来解决该挑战,最终实验证明该方法在幻觉减少方面优于基线模型。
Oct, 2023
大型语言模型(如 ChatGPT、Bard 和 Llama)在不同领域的应用中取得了显著的成功。然而,虚假生成是限制其广泛应用的关键问题。本报告意在综述虚假生成检测和虚假生成减轻的现有文献,旨在为对大型语言模型和将其应用于实际任务感兴趣的工程师和研究人员提供参考。
Jan, 2024
这篇论文综述了 32 种技术,旨在减轻大型语言模型中的幻觉问题,其中包括检索增强生成、知识检索、CoNLI 和 CoVe 等方法,并提出了基于数据集利用、常见任务、反馈机制和检索器类型等参数的分类方法,以区分专门设计用于解决大型语言模型幻觉问题的各种方法。此外,还分析了这些技术中存在的挑战和局限性,为未来研究提供了坚实的基础。
Jan, 2024
本文介绍了建立三个独立的 LLM 模型 —— 理解、经验和事实 —— 以综合当今单一 AI 模型存在的挑战。我们通过多长度分词的思路来保护关键信息资产,最后我们使用一些最先进的现有模型进行法律幻觉的检验,并得到了一些有趣的结果。
Jun, 2023
通过基于认知偏见和其他心理现象的心理分类学,我们质疑将 “幻觉” 一词应用于大型语言模型,并利用人类内部解决类似挑战的见解来开发缓解 LLMs 幻觉的策略,为提高 LLM 的可靠性提供细致精确的理解和可操作的途径。
Feb, 2024
研究总结了最近对大型语言模型中的幻觉现象的有趣见解,提出了一个包含各种文本生成任务中幻觉的新颖分类法,以及理论洞察、检测方法和改进方法,并提出了若干未来的研究方向。
Sep, 2023
提出了一种利用检索增强生成(RAG)的系统来改进结构化输出质量、减少生成 AI 中的幻觉,并提高 LLM 在领域外场景中的泛化能力的企业应用部署方法。
Apr, 2024
通过广泛系统实验,我们展示了传统方法无法解释 LLMs 在实践中为什么会产生幻觉,并通过大量内存专家的混合来增强 LLMs,可以轻松地记忆大数据集,为去除幻觉设计了 Lamini-1 模型。
Jun, 2024