大型语言模型是否知道自己不知道的?
提出了一种新颖的自我检测方法,通过扩展问题的文本表达并收集相应的答案,检测大型语言模型(LLMs)是否会产生虚假回答,证明了该方法在LLM效果上的有效性。
Oct, 2023
当前大型语言模型(LLMs)在生成符合语法、流畅的文本方面无与伦比。这篇论文针对LLMs的能力进行了辩论,并通过批判性评估三个经常在批评中出现的观点来展示LLMs仍需更多细化。其次,文章从实证和理论的角度提出了对LLMs中“真正”的理解和意向性的实用观点,并讨论了在何种情况下将心理状态归因于LLMs对于这一日益重要的技术在社会中具有实用的哲学背景。
Oct, 2023
通过自体对齐方法,本文提出一种新颖且可扩展的方法以增强大型语言模型对不同类型未知问题的回答能力,不仅能够拒绝回答,还能提供关于无法回答的解释。实验结果验证了该方法在两个数据集上针对四种未知问题类型的三种任务形式方面优于现有基准模型。
Feb, 2024
评估大型语言模型的事实记忆能力及其影响因素,涵盖多个领域、知识流行度水平和模型家族,并观察到指令调整对知识召回的负面影响、模型规模对性能的正面影响以及反事实演示对大模型事实知识召回的降低作用。
Apr, 2024
基于 Feynman 的理解通过创造原则,我们引入了一个易于实施的自我认知评估框架,评估模型对自动生成的问题的理解和回应能力。我们的研究发现,在多个任务上测试多个模型后,模型的自我认知能力存在显著差距。进一步分析表明,这些差距可能是由于与人类注意机制的不匹配所导致的。此外,对自动生成的数学任务进行微调可以提高模型的数学性能,突出了该框架在高效和富有洞察力的模型评估方面的潜力,并可能有助于改善大型语言模型。
Jun, 2024
研究通过构建自我认知指令提示池,评估大型语言模型的自我认知,并提出四个原则来量化模型的自我认知水平。结果显示在Chatbot Arena的48个模型中,有4个模型展示出可检测到的自我认知。模型规模、训练数据质量与自我认知水平之间存在正向相关关系。此外,研究还探索了自我认知状态下大型语言模型的效用和可信度,揭示了自我认知状态增强创造性写作和夸张等特定任务的能力。这项工作有望激发进一步研究大型语言模型的自我认知。
Jul, 2024
利用大型语言模型作为知识库的可靠性和效果尚未得到充分研究,该研究通过定义可靠性标准和指标,评估了26个热门语言模型的效果,并发现即使高性能模型如GPT-3.5-turbo也不具备事实性和一致性,而在上下文学习和微调等策略上的努力也未能改善这些语言模型作为知识库的表现。
Jul, 2024
本研究旨在解决大型语言模型(LLMs)在评估其局限性方面的不足。我们提出了一种自我挑战的评估框架,通过引导LLMs发现自身错误并总结出新模式,结合人类反馈,生成更具挑战性的数据。研究表明,仅有44.96%的实例能被模型正确回答,此框架为LLMs的动态评估提供了新思路。
Aug, 2024
本研究解决了大型语言模型在长上下文推理中的局限性,传统方法依赖人工标签或先进模型数据进行微调,而我们提出了一种自我改进的方法\ours,通过对多个输出进行评分和优化,显著提升了长上下文推理的能力,Llama-3.1-8B-Instruct模型的表现改善了4.2个百分点。此研究为长上下文场景中的自我改进技术开辟了新方向,推动了大型语言模型的持续进步。
Nov, 2024