本研究评估了大语言模型的自我认知能力,通过引入自主问答数据集和一种自动化方法来检测不能回答的问题,研究发现大语言模型具有一定的自我认知能力,可以通过上下文学习和指导调整进一步提高其自我认知。但是,研究还发现,这些模型与人类在识别知识限制方面存在明显差距。
May, 2023
提出了一种新颖的自我检测方法,通过扩展问题的文本表达并收集相应的答案,检测大型语言模型(LLMs)是否会产生虚假回答,证明了该方法在 LLM 效果上的有效性。
Oct, 2023
这项研究系统地调查了大型语言模型在缺乏先验知识以生成有意义回答的情况下常出现的产生杜撰和幻觉的问题,旨在探讨如何教导这些模型主动和可靠地表达不确定性。研究发现,在处理无法回答问题的同时,通过针对训练数据中缺失信息设计的对抗性问答基准测试,经过指令微调和来自人类反馈的强化学习后的大型语言模型表现明显优于未经处理的模型。此外,通过提取不确定度表达的方法得到的结果并不始终与大型语言模型直接回答问题的自信程度一致。因此,我们呼吁进一步研究如何教导大型语言模型主动和可靠地表达不确定性。
Nov, 2023
该论文介绍了一种针对大型语言模型的不确定性测量和调整的框架,使用收敛性预测理论提供任务完成的统计保证,同时在复杂的多步计划设置中最小化人类干预,为机器人增加了有效性和自主性,并建议一种轻量级的不确定性建模方法,以补充和扩展基础模型的不断增长的能力。
Jul, 2023
通过从 Wikipedia 中检索知识来生成自然回复,我们的最佳对话模型在 Open-Domain 话题上进行了知识交流,同时我们的新基准允许在这一重要研究方向上进行进一步的改进。
Nov, 2018
本论文探讨了大型语言模型在理解自己的知识和衡量自身不确定性方面的能力,并提供了一个新的已知 - 未知问题数据集以及一个分类方法来解释不确定性的来源。通过评估 LM 在分类已知和未知问题以及在开放式问题回答中的质量方面,量化了 LM 表达答案中的不确定性的方法。
通过降低获取知识成本,人工智能可能对公众理解产生逆效应,最终导致知识塌缩,损害创新和人类理解与文化的丰富性。我们提供一个简单模型来研究学习者或创新者选择使用传统方法还是依赖打折的人工智能辅助过程的条件,并发现人工智能生成内容的打折将使公众信仰与真实事实相差 2.3 倍。最后,我们考虑进一步的研究方向来对抗这种结果。
Apr, 2024
通过自体对齐方法,本文提出一种新颖且可扩展的方法以增强大型语言模型对不同类型未知问题的回答能力,不仅能够拒绝回答,还能提供关于无法回答的解释。实验结果验证了该方法在两个数据集上针对四种未知问题类型的三种任务形式方面优于现有基准模型。
Feb, 2024
本研究提出了基于非参数记忆、指针机制和情节式探索奖励的 AFK 代理,使其能够询问外部语言知识来帮助解决任务,大量实验证明 AFK 代理在挑战性的 Q-BabyAI 和 Q-TextWorld 环境中优于最近的基线。
May, 2022
将预训练语言模型与外部知识源相结合,可以增强其上下文处理能力,克服传统语言模型的问题,如错觉、无依据的回答和可拓展性挑战。
Sep, 2023