Mar, 2025

语言模型无法反思其对语言的知识

TL;DR本研究探讨大型语言模型(LLMs)是否能够自我反思其内部语言知识,特别关注语法知识和词预测的领域。研究发现,尽管模型在相关任务中表现良好,但并没有证据表明它们具有特权的"自我访问"能力,这为理解模型的内在语言知识提出了新的挑战。